Null
Dieser Artikel behandelt die Zahl Null und die Ziffer 0. Für weitere Bedeutungen von Null, siehe bitte Null (Begriffsklärung).
Anschaulich betrachtet ist die Null ein Symbol für das Nichtvorhandensein von Elementen oder Gegenständen.
Viele Kulturen des Altertums hatten keine Zahl Null, weil sie sie nicht benötigten (sie rechneten nur mit positiven Zahlen). Im Lateinischen wurde anstatt einer Zahl Null das Wort "nihil" (= nichts) verwendet.
Im arabischen Zahlensystem wird die Zahl Null durch die Ziffer 0 dargestellt.
Von der Ziffer 0 und der Zahl Null ist zu unterscheiden der Wert NULL in Feldern von Datenbanken oder Programmiersprachen, der leer, unbekannt, unbestimmt oder unbedeutend meint. Siehe dazu Nullwert.
Die Ziffer 0
Die Ziffer 0 ermöglichte die Bildung des Dezimalsystems, also des Stellenwertsystems mit der Basis 10, und damit auch die Entwicklung der modernen Mathematik. Auch das Begreifen des Wesens der Null als Zahl entwickelte sich wohl erst nach der Erfindung der Null als Ziffer.
Die Anfänge des Dezimalsystems entwickelten sich im 3. Jahrhundert v. Chr. in Indien. Allerdings wurden je nach anzuzeigender Zehnerpotenz unterschiedliche Ziffernsymbole verwendet. Die Ziffer für die "eins" von "einhundert" war also eine andere als für die "eins" von "eintausend". Im 5. Jahrhundert nach Chr. kam man dann - ebenfalls in Indien - auf die Idee, das System so zu vereinfachen, dass man für jede dezimale Stelle dieselbe Menge von 9 Ziffern verwenden konnte: Dazu war es notwendig, für fehlende Werte auf einer bestimmten Zehnerpotenz ein neues Symbol zu verwenden. Unter dem Sanskrit-Wort sunya (für leer) wurde die Null geboren.
Die Null bezeichnet also keinen Wert, doch bringt sie eine Zahl, die links vor ihr steht, dazu, mehr zu bezeichnen, als wenn sie allein stünde. (In den ursprünglichen indischen Systemen war die Reihenfolge der Potenzen jedoch umgedreht, die Einer wurden zuerst genannt, dann die Zehner etc. Die Null erhöhte damit den Wert der folgenden Ziffer.)
Die Zahl Null
Die Zahl Null hat einige besondere Eigenschaften, die bei der Untersuchung von Rechenregeln hervortreten.
Addition
Die Null symbolisiert im mathematischen Sinne das neutrale Element der Addition in einem Monoid, das heißt: Für jedes Element a des Monoids gilt
Die Null im mathematischen Sinne (als neutrales Element eines Monoids) ist stets eindeutig. In Restklassenkörpern und Restklassenringen gibt es zwar nur eine Null, die aber von unendlich vielen ganzen Zahlen repräsentiert wird.
Multiplikation
Durch Einführung der Rechenoperation der Multiplikation, mathematisch formal in der Definition eines Ringes, erhält man folgende Regel:
Man sagt auch, die Null ist ein absorbierendes Element der Multiplikation.
Potenzrechnung
Die Erweiterung der Rechenoperationen zur Potenzierung, formal in einem Körper definiert, erfordert, dass
immer gilt.
Der unanschauliche Spezialfall
wird in der Regel per Definition festgelegt. Man erreicht ihn z.B. aufgrund der Forderung, dass der Wert der Funktion an der Stelle stetig sein soll.
Ebenso lässt sich jedoch - alternativ, nicht gleichzeitig! - definieren, damit der Grenzübergang von für x gegen Null stetig ist.
Der Grenzwert von strebt für x gegen Null ebenfalls gegen 1.
Division durch Null
Das Ergebnis der Division einer Zahl durch Null ist nicht eindeutig bestimmt, und bleibt deshalb in der Mathematik undefiniert.
Für natürliche Zahlen kann die Division als wiederholte Subtraktion angesehen werden:
- Um die Frage "Wie oft muss man 4 von 12 abziehen, um 0 zu erhalten?" zu beantworten, also 12 : 4 zu bestimmen, kann man so rechnen:
- 12 - 4 = 8
- 8 - 4 = 4
- 4 - 4 = 0
- Die Anzahl der Subtraktionen ist 3.
- Also ist 12 : 4 = 3.
Bei 12 : 0 lautet die Frage: "Wie oft muss man 0 von 12 abziehen um 0 zu erhalten?" Antwort: Keine Anzahl von Operationen bringt das gewünschte Ergebnis.
Für beliebige Zahlmengen ist die Division als Umkehrung der Multiplikation definiert. Bei der Division sucht man eine Zahl x, welche die Gleichung erfüllt. Diese Zahl x - sofern sie eindeutig bestimmt ist - schreibt man als Quotienten .
Falls a gleich 0 ist, dann ist die ursprüngliche Gleichung nur dann richtig, wenn b ebenfalls gleich 0 ist.
Somit wird im Falle a gleich 0 die Frage, welche Zahl x die Gleichung erfüllt, trivial: Jede Zahl x erfüllt die Gleichung . Im Fall a ungleich 0 gibt es aber keine Zahl x, die die Gleichung erfüllt.
In beiden Fällen gibt es kein eindeutiges Ergebnis bei der Division durch Null.
Beim Rechnen mit reellen (oder komplexen) Zahlen ist es also nicht möglich, durch Null zu dividieren, da diese Operation kein eindeutiges Ergebnis hätte: Die Multiplikation mit 0 ist nicht umkehrbar. Dies gilt allgemein für jeden Ring.
Nota bene: In der Didaktik der Mathematik werden Verbote ("durch null darf man nicht dividieren") als schädlich angesehen, da der Gedankengang leicht herzuleiten ist, und den Schülern nicht ein Eindruck von Willkürlichkeit im Fach Mathematik vermittelt werden soll. Besser ist es also, die Aussage "durch null kann man nicht dividieren" zu begründen.
Eine Division durch Null ist oft der Fehler, der in Scheinbeweisen steckt, zum Beispiel beim Fehlschluss, dass 2=1 ist.
Division durch Null auf Computern
Da die Division durch Null nicht definiert ist, stellt sie in Berechnungen auf dem Computer oft einen Laufzeitfehler dar. Dieser führt zu Ausnahmebehandlungen oder sogar zu Programmabbrüchen, falls der Fehler nicht behandelt wird.
Bei Berechnungen mit Gleitkommazahlen werden aus Performancegründen meist keine Ausnahmen ausgelöst, daher wurde in IEEE 754 das Ergebnis der Division durch Null als Spezialfall geregelt:
- für
- für
- (Not a Number = keine Zahl).
Der Wert NaN wird bei jeder nicht definierten Operation zurückgeliefert (zum Beispiel beim Ausrechnen des Logarithmus aus negativen Zahlen).
Nullteiler
In Restklassenringen (aber nicht nur dort) existieren so genannte Nullteiler, zum Beispiel gilt im Restklassenring modulo 6 die Gleichung 2 · 3 = 0. Daraus folgt jedoch nicht, dass 0 / 2 = 3 ist, denn auch 2 · 0 = 0, man kann also diesen Quotienten nicht eindeutig (und damit sinnvoll) definieren. Man kann also nicht nur nicht durch Null teilen, sondern auch nicht durch einen Nullteiler dividieren.
historische Irrtümer
Leonhard Euler argumentiert ohne die richtige Kenntnis der negativen Zahlen (historisch falsch) folgend:
- Die negativen Zahlen seien größer als unendlich. Seine Annahme: a/0 =∞ (unendlich). Daraus folge, dass das Resultat der Division von a durch eine Zahl kleiner als Null größer als unendlich sein muss. Dies ist falsch.
Im gewissen Sinne hat Euler damit jedoch die Zweierkomplementdarstellung von ganzen Zahlen im Computer vorweggenommen, denn in dieser Darstellung sind die negativen Zahlen - aufgefasst als vorzeichenlose Dualzahl - tatsächlich größer als die positiven.
Hilfsdefinitionen für die Division durch Null
Es ist möglich, die reellen Zahlen um zwei Symbole ∞ und -∞ zu erweitern, so dass einige Rechenregeln auch für die beiden Unendlich-Symbole gelten, z.B. ist dann a / 0 = ∞ für positive a, b / 0 = -∞ für negative b, jedoch ist 0*∞ nicht a, sondern undefiniert, genauso wie auch 0 / 0 undefiniert bleibt.
Diese Herangehensweise entspricht der Verwendung bei der Berechnung von Grenzwerten in der reellen Analysis. Demzufolge ist also die generelle Aussage "die Division durch 0 ist verboten" mathematisch nicht allgemeingültig, sondern entsprechend dem besonderen Zusammenhang zu relativieren.
Siehe auch die Regel von de L'Hospital.
Weblink
Literatur
- Charles Seife: Zwilling der Unendlichkeit. Eine Biographie der Zahl Null, ISBN 344215054X
- Robert Kaplan: Die Geschichte der Null, ISBN 3492239188. (Frankfurt/Main: Campus, 2000. ISBN 3-593-36427-1)