0 (Null) ist sowohl eine Zahl als auch eine Ziffer, wobei die Ziffer jenes Zeichen ist, welches die Zahl innerhalb eines Zahlensystems darstellt. Anschaulich betrachtet ist die Null ein Symbol für das Nichtvorhandensein von Elementen oder Gegenständen.
Die Geschichte der Null
Die Ziffer 0 ermöglichte die Bildung des Dezimalsystems, also des Stellenwertsystems mit der Basis 10, und damit auch die Entwicklung der modernen Mathematik. Auch das Begreifen des Wesens der Null als Zahl entwickelte sich wohl erst nach der Erfindung der Null als Ziffer.
Eurasien und Afrika
Sumerer
Die erste Darstellung der Zahl Null findet man vor etwa 5000 Jahren bei den Sumerern und zwar in Form von zwei schräg gestellten Keilen. Die Null wurde jedoch nur in der Mitte einer Zahl, aber nie am Ende, benutzt.
Griechen
Bei den Griechen findet man bis zur alexandrinischen Zeit keine Spuren von der Null. Im Zeitalter des Homer gruppierten sie Zahlsymbole von links nach rechts, doch hatten sie noch immer kein Stellenwertsystem. Unter Alexander entdeckten sie die Null im babylonischen Reich und bemerkten ihre Vorteile. So fand man in einem astronomischen Papyrus aus dem 3. Jh. v. Chr. das Symbol »O« für Null. Von je her versuchten die Menschen eine Erklärung für die Verwendung dieses Symbols zu finden. Wahrscheinlich stammt dieses »O« vom griechischen Omikron, dem ersten Buchstaben des Wortes »nichts« (oudén). Im Homerschen System fand sich öfters, dass der erste Buchstabe des Zahlwortes als Zahlsymbol verwendet wurde. Andere verwerfen diese Theorie in der Meinung, die Griechen hätten »O« bereits für die Zahl 70 verwendet, das Symbol sei also willkürlich gewählt.
Diophant wählte ein M mit einem Kreis darüber, da »mo« die ersten Buchstaben des Wortes Monade (Einheit) waren. Man wählte für die Null immer ein Zeichen mit einem mehr oder weniger stark ausgeprägten Balken darüber und deutete somit an, dass die Null nicht den Status einer Zahl hatte. Bei Griechen fand man nur in astronomischen Texten, wie zum Beispiel von Ptolemaios, das Symbol »O«. Die Griechen rechneten meist mit dem Abakus, bei dem keine Spalte, die für Null stand, notwendig war. War in einer Spalte jedoch kein Stein, so trat die Null als Platzhalter in Erscheinung und verlieh den anderen Zahlen dadurch den richtigen Wert. Die Steine auf dem Rechenbrett oder auch im Sand waren mehr oder weniger rund und wurden in der Schrift als volle Punkte dargestellt ●. Eine Art zu zeigen, dass nicht einmal ein einziger Rechenstein vorhanden ist wäre ○. Dieses Zeichen würde sich auch durch den Abdruck erklären lassen, welcher zurück bleibt wenn man einen Stein entfernt. Was bleibt ist das Nichts. Eine weitere Erklärung für ○ ist die Natur, weil sehr häufig runde Hohlräume, runde Samen, etc. vorkommen. Durch die Schreibtechniken der Menschen verwandelte sich ○ mit den Jahrhunderten in 0, da es einfacher war zwei geschwungene Striche, als einen durchgehenden Kreis zu ziehen. Wie sich die Null in der östlichen Welt entwickelte ist ungewiss. Unter Alexander dem Großen führten Handelsstraßen von Alexandria bis nach Indien. Auf diesen Routen wurden die mathematischen Kenntnisse der »babylonischen Null« von den Griechen selbst überliefert.
Indien und Buddhismus
Die Anfänge des Dezimalsystems entwickelten sich im 3. Jahrhundert v. Chr. in Indien. Allerdings wurden je nach anzuzeigender Zehnerpotenz unterschiedliche Ziffernsymbole verwendet. Die Ziffer für die »eins« von »einhundert« war also eine andere als für die »eins« von »eintausend«. Im 5. Jahrhundert nach Chr. kam man dann – ebenfalls in Indien – auf die Idee, das System so zu vereinfachen, dass man für jede dezimale Stelle dieselbe Menge von 9 Ziffern (die heute als 1 bis 9 geschrieben werden) verwenden konnte: Dazu war es notwendig, für fehlende Werte auf einer bestimmten Zehnerpotenz ein neues Symbol zu verwenden, eine zehnte Ziffer. Unter dem Wort śūnya (Sanskrit, n., शून्य, die Leere, das Nichts, das Nichtvorhandensein) wurde die Null geboren. Die philosophische Grundlage dafür war wahrscheinlich das buddhistische Konzept śūnyatā (Sanskrit, f., शून्यता, die Leerheit, die illusorische Natur der Phänomene) wie es Nāgārjuna in der Lehre von der Leerheit (śūnyatāvāda) beschrieben hat.[1] Auf Hindi wird noch heute die Null mit shunya bezeichnet.
Die indische Kultur steht unter erkennbarem griechischen Einfluss. Man nimmt daher an, dass sie jenes Symbol für Null aus griechischen Quellen bezogen. Die Inder beschäftigten sich mit der Null zunächst jedoch nur in Rechengesetzen. Dabei erkannten sie, dass eine Zahl minus sich selbst Null ergibt. Somit erlangte die Null den gleichen Status wie die anderen Zahlen (Paradigmenwechsel). Solche Paradigmenwechsel vollziehen sich langsam. Erst 600 n. Chr. beschäftigten sie sich damit, was passiert wenn man Null zu einer Zahl addiert und erkannten 5 Jahrhunderte später, dass bei der Addition bzw. Subtraktion mit Null die Menge, ob positiv oder negativ, gleich bleibt. Aber bei der Subtraktion von Null kehrte sich das Vorzeichen um. Das Brahmasphutasiddhanta (628) von Brahmagupta ist, wenn man vom Zahlensystem der Mayas absieht, der früheste bekannte Text, in dem die Null als vollwertige Zahl behandelt wird.
Die ersten Schriften in Europa und Asien, die zwischen Zahlen eine Null in Form eines Punktes oder kleinen Kreises beinhalteten, stammen aus dem 7.Jahrhundert nach Chr. aus Kambodscha.
In den ursprünglichen indischen Systemen war die Reihenfolge der Potenzen umgedreht, die Einer wurden zuerst genannt, dann die Zehner etc. Die Null erhöhte damit den Wert der folgenden Ziffer.
Europa ab dem Mittelalter
Während das christliche Abendland unter dem Zerfall des römischen Reiches litt, breitete sich der Islam schnell in Richtung Westen aus – bis nach Algerien, welches nun zum Arabischen Reich gehörte. Kurz darauf eroberten die Araber ein Gebiet, das von Spanien bis nach Nordindien reichte. So konnte sich auch »Das Buch über das Rechnen mit indischen Ziffern« (»al-Kitāb al-mukhtaṣar fī ḥisāb al-jabr wa-l-muqābala«, um 825) von al-Chwarizmi, einem persischen Mathematiker, über ein großes Gebiet ausbreiten.
Leonardo Fibonacci, ein bedeutender Mathematiker des Mittelalters, der in Algier als Sohn eines italienischen Handelsvertreters mit den arabisch-indischen Zahlen inklusive der Null vertraut war, führte diese in Italien ein. Die Vorteile dieser Zahlen schilderte er später in seinem Werk »Liber abaci«, worin er Beispiele aus der Handelswelt bearbeitete. In den folgenden Jahrhunderten gewann die Null in vielen Bereichen an Bedeutung. Die Null wurde zum Ausgangspunkt für viele Skalen, sei es Temperatur oder der Meeresspiegel und so wuchsen die Begriffe positiv und negativ im Denken der Menschen.
Fälschlicherweise wird auch immer wieder behauptet, dass es Papst Silvester II. (mit bürgerlichem Namen Gerbert von Aurillac) gewesen sei, der die arabisch-indischen Zahlen nach Europa gebracht hätte.
Mittelamerika
Der Kalender Lange Zählung, auch Maya-Kalender genannt, wurde in Südmexiko entwickelt. Er benötigt die Null als Platzhalter im Vigesimalsystem (Stellenwertsystem zur Basis 20). Das Symbol einer Muschel stellt die Ziffer Null dar. Das älteste bisher gefundene Datum als Lange Zählung zeigt einen Tag im Jahr 36 vor Chr. (Stele 2 in Chiapa de Corzo, Chiapas). Da die ältesten Zeitangaben der Langen Zählung außerhalb des Mayagebiets im Kerngebiet der Olmeken gefunden wurden, wird vermutet, dass dieser Kalender von den Olmeken entwickelt wurde. So befindet sich auf der Stele C aus Tres Zapotes, dort war eine Siedlung der Olmeken, sich das zweitälteste, bisher entdeckte Datum in der Langen Zählung. Dieses ist 7.16.6.16.18 und entspricht einem Tag im September 32 vor Chr. Es wird vermutet, dass die umgebenen Zeichen zur Schrift der Olmeken gehören. Andererseits verschwand die Kultur der Olmeken schon am Ende des 4. Jahrhunderts vor Chr., also lange vor den ältesten bekannten Datumsinschriften. Auch die Olmeken im heutigen Mexiko haben die Null – zeitlich sogar vor den Indern – »erfunden« und mit ihr gerechnet. Und auch dem Volk der Inka kann man eine Handhabung mit der Null nachweisen. Dort, wo sie Waren und Tierherden mithilfe ihrer Knoten, den Quipus, vermerkten diente ein Band ohne Knoten als Nullmenge.
Die Ziffer »0«
Die Null bezeichnet keinen Wert, doch bringt sie eine Zahl, die links vor ihr steht, dazu, mehr zu bezeichnen, als wenn sie allein stünde.
Führende Nullen werden üblicherweise weggelassen bzw. bei einer formatierten Ausgabe durch Leerzeichen ersetzt.
Bei Dezimalzahlen werden Nullen nach dem Komma üblicherweise weggelassen, wenn ihnen keine andere Ziffer mehr folgt. Bei einer formatierten Ausgabe werden sie entsprechend dem Ausgabeformat geschrieben.
Sofern Verwechslungsgefahr mit dem großen lateinischen Buchstaben O besteht, wird die Ziffer 0 mit einem Schrägstrich gekennzeichnet: oder oder 0̷.
Die Zahl »Null«
Die Zahl Null hat einige besondere Eigenschaften, die bei der Untersuchung von Rechenregeln hervortreten.
Grundrechenarten
Subtraktion
Die Null entsteht als Resultat einer Differenz, bei der der Subtrahend gleich dem Minuend ist
- .
Addition
Die Null symbolisiert im mathematischen Sinne das neutrale Element der Addition in einem kommutativen Monoid, das heißt: Für jedes Element a des Monoids gilt
- .
Die Null im mathematischen Sinne (als neutrales Element eines Monoids) ist stets eindeutig. In Restklassenkörpern und Restklassenringen gibt es zwar nur eine Null, die aber von unendlich vielen ganzen Zahlen repräsentiert wird.
Multiplikation
Durch Einführung der Rechenoperation der Multiplikation, mathematisch formal in der Definition eines Ringes, erhält man folgende Regel:
- a · 0 = 0 = 0 · a
Man sagt auch, die Null ist ein absorbierendes Element der Multiplikation.
Division
Das Ergebnis der Division einer Zahl durch Null ist nicht eindeutig bestimmt und bleibt deshalb in der Mathematik undefiniert.
Für natürliche Zahlen kann die Division als wiederholte Subtraktion angesehen werden:
- Um die Frage »Wie oft muss man 4 von 12 abziehen, um 0 zu erhalten?« zu beantworten, also 12 : 4 zu bestimmen, kann man so rechnen:
- 12 − 4 = 8
- 8 − 4 = 4
- 4 − 4 = 0
- Die Anzahl der Subtraktionen ist 3.
- Also ist 12 : 4 = 3.
Bei 12 : 0 lautet die Frage: »Wie oft muss man 0 von 12 abziehen um 0 zu erhalten?« Antwort: Keine Anzahl von Operationen bringt das gewünschte Ergebnis.
Für beliebige Zahlenmengen ist die Division als Umkehrung der Multiplikation definiert. Bei der Division von b durch a sucht man eine Zahl x, welche die Gleichung erfüllt. Diese Zahl x – sofern sie eindeutig bestimmt ist – schreibt man als Quotienten . Falls a gleich 0 ist, dann suchen wir also eine Lösung der Gleichung .
- Im Fall b ungleich 0 ist die Gleichung unlösbar, weil es keine Zahl x gibt, für die ungleich 0 ist.
- Im Fall b gleich 0 wird die Frage, welche Zahl x die Gleichung erfüllt, trivial: Jede Zahl x erfüllt die Gleichung .
In beiden Fällen gibt es kein eindeutiges Ergebnis bei der Division durch Null.
Beim Rechnen mit reellen (oder komplexen) Zahlen ist es also nicht möglich, durch Null zu dividieren, da diese Operation kein eindeutiges Ergebnis hätte: Die Multiplikation mit 0 ist nicht umkehrbar. Dies gilt allgemein für jeden Ring.
Nota bene: In der Didaktik der Mathematik werden Verbote (»durch Null darf man nicht dividieren«) als schädlich angesehen, da den Schülern nicht ein Eindruck von Willkür im Fach Mathematik vermittelt werden soll. Besser ist es also, die Aussage »durch Null kann man nicht dividieren« zu lehren und begründen.
Division durch Null auf Computern
Für ganze Zahlen (integer und andere Datentypen) ist im Computer eine Division durch 0 nicht definiert. Der Versuch eines Programms, eine ganze Zahl durch 0 zu teilen, erzeugt in der Regel einen Laufzeitfehler, der unbehandelt meist zum Abbruch des Programms führt.
Für Gleitkommazahlen (float und andere Datentypen) ist aber durch den Gleitkommastandard IEEE 754 unter anderem eine Division durch 0 definiert. Dieser Standard definiert zwei Gleitkommazahlen namens +Inf und −Inf (infinity = unendlich) und unterscheidet zwei Zahlen mit dem Wert 0: +0 und −0. Beide repräsentieren die Zahl 0, beim Testen auf Gleichheit werden diese beiden Zahlen als gleich betrachtet. Für das Rechnen mit +0, −0, +Inf und −Inf legt der Standard naheliegende und natürliche Regeln fest, wann immer es möglich ist. So ist zum Beispiel folgendes festgelegt (Inf hier als das ∞-Zeichen dargestellt):
- +∞ + +∞ = +∞ und −∞ + −∞ = −∞.
- Für x > +0 gilt:
- x / +0 = +∞,
- x / −0 = −∞,
- Für x < −0 gilt:
- x / +0 = −∞,
- x / −0 = +∞.
Es gibt aber auch kompliziertere Spezialfälle, die sich nicht so einfach regeln lassen, z. B.
- +∞ − +∞,
- +∞ + −∞.
Ebenso die Divisionen
- 0/0,
- ∞/∞
in allen Vorzeichenkombinationen. Die Operationen geben eine Unzahl zurück, auch NaN genannt (NaN steht dabei für not a number).
Potenzrechnung
Die Erweiterung der Rechenoperationen zur Potenzierung, formal in einem Körper definiert, erfordert, dass
immer gilt.
- ist undefiniert. Der Wert könnte nur durch Grenzwertberechnung bestimmt werden. Leider kann bei geeigneter Wahl von Nullfolgen und als Grenzwert jede beliebige Zahl herauskommen.
In speziellen Fällen kann man durch eine willkürliche Festsetzung eine benötigte Funktion stetig fortsetzen. So kann beispielsweise durch die Festsetzung eine stetige Fortsetzung von Funktionen wie oder an der Stelle definiert werden. Mit dieser Festsetzung können Sätze der Analysis (Binomischer Lehrsatz) einfacher formuliert werden. Strenggenommen ist das jedoch keine Definition von , sondern die stetige Fortsetzung einer Funktion mit einer hebbaren Unstetigkeitsstelle. Die stetige Fortsetzung der Funktion würde die Festsetzung implizieren. In der Informatik wird aus pragmatischen Gründen häufig angenommen.
Nullteiler
In Restklassenringen (aber nicht nur dort) existieren so genannte Nullteiler, zum Beispiel gilt im Restklassenring modulo 6 die Gleichung 2 · 3 = 0. Daraus folgt jedoch nicht, dass 0 / 2 = 3 ist, denn auch 2 · 0 = 0, man kann also diesen Quotienten nicht eindeutig (und damit sinnvoll) definieren. Man kann also auch nicht durch einen Nullteiler dividieren.
Historische Irrtümer
Leonhard Euler argumentierte noch folgendermaßen:
- Die negativen Zahlen seien größer als unendlich. Seine Annahme: a/0 = ∞ (unendlich). Daraus folge, dass das Resultat der Division von a durch eine Zahl kleiner als Null größer als unendlich sein muss. Dies ist falsch.
Im gewissen Sinne hat Euler damit jedoch die Zweierkomplementdarstellung von ganzen Zahlen im Computer vorweggenommen, denn in dieser Darstellung sind die negativen Zahlen – aufgefasst als vorzeichenlose Dualzahl – tatsächlich größer als die positiven.
Erweiterung der reellen Zahlen
Es ist, ähnlich zum Vorgehen bei Gleitkommazahlen, möglich, die reellen Zahlen um zwei Symbole ∞ und -∞ zu erweitern, so dass einige Rechenregeln auch für die beiden Unendlich-Symbole gelten. Zum Beispiel ist dann a / 0 = ∞ für positive a, b / 0 = -∞ für negative b, jedoch ist 0 · ∞ nicht a, sondern undefiniert, genauso wie auch 0 / 0 und ∞ / ∞ undefiniert bleibt.
Beachte, dass diese erweiterte Menge keine algebraische Struktur mehr ist, weil einige Summen und Produkte undefiniert sind. Die üblichen Rechenregeln sind jedoch gültig, falls alle auftretenden Teilausdrücke definiert sind.
Diese Herangehensweise entspricht der Verwendung bei der Berechnung von Grenzwerten in der reellen Analysis. Siehe hierzu auch die Regel von de L'Hospital.
Zahlenreihe
Bedeutung in der Informatik
In der Informatik ist die Null sehr wichtig, da sie zusammen mit der Eins ein Teil des Binärsystems ist. Sie steht in der Maschinensprache für »Aus« (Off) und ist auch in Programmiersprachen als Datentyp Boolean wiederzufinden: 1 (bzw -1 bei Darstellung als 32-Bit Ganzzahl mit Vorzeichen) = True = Wahr, 0 = False = Falsch.
In einigen Datenbanken oder Programmiersprachen existiert zusätzlich der spezielle Wert NULL, der von der Ziffer 0 und der Zahl Null zu unterscheiden ist. Er hat die Bedeutung leer, unbestimmt, »ohne Wert« (siehe dazu Nullwert). In der deutschen Sprache kann er bei englischer Aussprache von der Null unterschieden werden: »Null« (0) gegenüber »Nall« (NULL).
Alltäglicher Sprachgebrauch
Die Formulierung »Null Uhr« bedeutet Mitternacht (nicht zu verwechseln mit der Stunde Null).
Es wird unterschieden zwischen »24:00 Uhr« und »0:00 Uhr«. Dabei kommt es darauf an, ob der Tag endet (24:00 Uhr) oder ob der Tag beginnt (00:00 Uhr).
Das Wort »Null« kommt auch in zahlreichen Redensarten vor (zum Beispiel jemanden auf Null bringen, etwas bei Null anfangen, jemand sei fachlich gesehen eine Null).
Etymologie
Die heutige deutsche Bezeichnung stammt vom lateinischen Wort nullus (=Keiner) bzw. altitalienisch nulla figura (=Nichts).
Siehe auch
Weblinks
Quellen
Literatur
- Robert Kaplan: Die Geschichte der Null. Gebundene Ausgabe: Campus Verlag, Frankfurt/M. 2000, ISBN 3-593-36427-1. Taschenbuchausgabe: Piper Verlag, 2000, ISBN 3-492-23918-8.
- Charles Seife: Zwilling der Unendlichkeit. Eine Biographie der Zahl Null. ISBN 3-442-15054-X