Zum Inhalt springen

Null

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 25. März 2004 um 10:13 Uhr durch 80.130.219.132 (Diskussion). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Anschaulich betrachtet stellt die Null das Nichtvorhandensein von Elementen oder Gegenständen dar. In vielen Kulturen des Altertums wurde mit der Null nicht gerechnet, da sie keine greifbare Größe darstellt. Im Lateinischen wurde anstatt einer Zahl Null das Wort "nihil" (= nichts) verwendet. Rechnen konnte man mit der Null seinerzeit nicht.

Im arabischen Zahlensystem wird die Zahl Null durch die Ziffer 0 dargestellt.

Mathematische Betrachtung

Addition

Die Null symbolisiert im mathematischen Sinne das neutrale Element der Addition in einem Monoid. Es gilt für die Addition:

Die Null im mathematischen Sinne (als neutrales Element eines Monoids) ist stets eindeutig. In Restklassenkörpern und Restklassenringen gibt es zwar nur eine Null, die aber von unendlich vielen ganzen Zahlen repräsentiert wird.

In Restklassenringen (aber nicht nur dort) existieren so genannte Nullteiler, zum Beispiel gilt im Restklassenring modulo 6 die Gleichung 2 · 3 = 0. Daraus folgt jedoch nicht, dass 0 / 2 = 3 ist, denn auch 2 · 0 = 0, man kann also diesen Quotienten nicht eindeutig (und damit sinnvoll) definieren. Man kann also nicht nur nicht durch Null teilen, sondern auch nicht durch einen Nullteiler dividieren.

Multiplikation

Durch Einführung der Rechenoperation der Multiplikation, mathematisch formal in der Definition eines Ringes, erhält man folgende Regel:

Man sagt auch, die Null ist ein absorbierendes Element der Multiplikation.

Potenzrechnung

Die Erweiterung der Rechenoperationen zur Potenzierung, formal in einem Körper definiert, erfordert, dass

immer gilt.

Der unanschauliche Spezialfall

wird in der Regel per Definition festgelegt. Man erreicht ihn z.B. aufgrund der Forderung, dass der Wert der Funktion an der Stelle stetig sein soll.

Division durch Null

Dadurch, dass die Null keine greifbare Größe darstellt, gibt es auch noch andere Probleme; teilt man eine beliebige Zahl durch Null, so ist das Ergebnis nicht eindeutig definierbar.

Allgemein kann die Division natürlicher Zahlen als wiederholte Subtraktion angesehen werden:

Bestimme 12 : 4
  12 - 4 = 8
  8 - 4 = 4
  4 - 4 = 0
  Die Anzahl der Subtraktionen ist 3.
Also ist 12 : 4 = 3.

Bei 12:0 lautet die Frage: Wie oft muss ich 0 von 12 abziehen um 0 zu erhalten? Antwort: Keine Anzahl von Operationen bringt das gewünschte Ergebnis. Nota bene: In der Didaktik der Mathematik werden Verbote ("durch null darf man nicht dividieren") als schädlich angesehen, da der Gedankengang leicht herzuleiten ist, und den Schülern nicht ein Eindruck von Willkürlichkeit im Fach Mathematik vermittelt werden soll. Besser ist es also, die Aussage "durch null kann man nicht dividieren" zu begründen. In der reellen Analysis ist es nicht möglich, durch Null zu dividieren, da diese Operation kein eindeutiges Ergebnis hätte (entweder gar keins [z.B. für 1/0] oder mehrere [nur für 0/0]). Dies gilt allgemein für jeden Ring.

In Berechnungen führt eine Division durch Null zu Fehlern und in Computerprogrammen zu Laufzeitausnahmebehandlungen oder sogar zu Abstürzen. Diese Rechenoperation ist daher nicht definiert; auf Computern wird häufig als Ergebnis 'NAN' (engl. Not A Number) verwendet.

historische Irrtümer

Leonhard Euler argumentiert ohne die richtige Kenntnis der negativen Zahlen (historisch falsch) folgend:

  • Die negativen Zahlen seien größer als unendlich. Seine Annahme: a/0 =∞ (unendlich). Daraus folge, daß das Resultat der Division von a durch eine Zahl kleiner als Null größer als unendlich sein muß. Dies ist falsch.

Hilfsdefinitionen für die Division durch Null

Es ist möglich, die reellen Zahlen um zwei Symbole ∞ und -∞ zu erweitern, so dass einige Rechenregeln auch für die beiden Unendlich-Symbole gelten, z.B. ist dann a / 0 = ∞ für positive a, b / 0 = -∞ für negative b, jedoch ist 0*∞ nicht a, sondern undefiniert, genauso wie auch 0 / 0 undefiniert bleibt.

Diese Herangehensweise entspricht der Verwendung bei der Berechnung von Grenzwerten in der reellen Analysis. Demzufolge ist also die generelle Aussage "die Division durch 0 ist verboten" mathematisch nicht korrekt, sondern entsprechend dem besonderen Zusammenhang zu relativieren.

Siehe auch: Null (Ziffer), Null (EDV), Die Regel von de L'Hospital

Literatur