Zum Inhalt springen

Null

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 8. Mai 2003 um 18:30 Uhr durch Stefan Kühn (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Anschaulich betrachtet stellt die Null das Nichtvorhandensein von Elementen oder Gegenständen dar. In vielen Kulturen des Altertums wurde mit der Null nicht gerechnet, da sie keine greifbare Größe darstellt. Im Lateinischen wurde anstatt einer Zahl Null das Wort "nihil" (= nichts) verwendet. Rechnen konnte man mit der Null seinerzeit nicht.

Mathematische Betrachtung

Die Null symbolisiert im mathematischen Sinne das neutrale Element der Addition in einem Monoid.

Es gilt für die Addition:

a + 0 = a

Dadurch, dass die Null keine greifbare Größe darstellt, gibt es auch noch andere Probleme; teilt man eine beliebige Zahl durch Null, so ist das Ergebnis die Unendlichkeit. Daher ist es in der Schulmathematik "verboten", durch Null zu teilen.

Die Null im Mathematischen Sinne muss nicht eindeutig sein. In Restklassenkörpern und Restklassenringen gibt es unendlich viele Nullen. In Restklassenringen existieren sogar so genannte Nullteiler, zum Beispiel gilt im Restklassenring Modulo 6 die Gleichung:

'0 / 3 = 2'

Besonderheiten der Null

a0 = 1 .

1 / 0 = Unendlich

  • In der Regel ist es verboten durch Null zu dividieren, da sonst oft Fehler in einer Rechnung auftauchen oder ein Computerprogramm abstürzt. Es gibt Mathematiker die die Theorie vertreten 1 geteilt durch Null sei eine unendliche positive Zahl. Offiziell ist diese Rechenoperation nicht definiert, auf Computern wird als Ergebnis 'NAN' (engl. Not A Number) verwendet.

Literatur