Zum Inhalt springen

Bit

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 26. Februar 2004 um 13:30 Uhr durch Gerhard W. (Diskussion | Beiträge) (Korrekturen). Sie kann sich erheblich von der aktuellen Version unterscheiden.


Dieser Artikel beschäftigt sich mit dem Bit als Informationseinheit. Für weitere Bedeutungen des Wortes Bit siehe Bit (Begriffsklärung)


Das Bit ist die kleinste Einheit der Information. Es ist ein Kurzwort aus binary digit (Binärziffer). Der Begriff wurde von dem Mathematiker John W. Tukey (vermutlich 1946, nach anderen Quellen schon 1943) vorgeschlagen. Schriftlich wurde der Begriff 1948 zum ersten Mal auf Seite 1 von Claude Shannons berühmter Arbeit A Mathematical Theory of Communication erwähnt.

Jede Information ist an einen Informationsträger gebunden. Die Informationsmenge 1 Bit entspricht einer einfachen Ja-Nein-Entscheidung, die man sich auch durch

  • die Stellung eines Schalters mit zwei Zuständen (Lichtschalter, EIN oder AUS),
  • den Schaltzustand eines Transistors (leitend oder nichtleitend),
  • das Vorhandensein einer Spannung (größer oder kleiner als vorgegebene Grenzwerte),
  • die logischen Wahrheitswerte (Wahr oder Falsch, high oder low, H oder L)

repräsentiert denken kann.

Mit n Bits lassen sich 2n verschiedene Zustände darstellen, also z.B. 16 mit 4 Bits, 256 mit 8 usw. Jedes Bit mehr verdoppelt die Zahl der möglichen Zustände. Repräsentieren diese Zustände (ganze) Zahlen, so ist ein Bit umso wichtiger (mehr Wert), je weiter "vorn" es steht (s.a. Stellenwert-Code).

Allgemein ist festzuhalten, dass es in der digitalen Welt keine unwichtigen Bits gibt. Beispiele:

  • zwei 64 Bit lange Zahlen sind ungleich, wenn sie sich auch nur im niederwertigsten Bit unterscheiden. Das führt z.B. zu einem Vertrauensproblem, wenn zwei digitalisierte Fingerabdrücke verglichen werden.
  • eine (vielleicht riesige) ausführbare (.EXE) Datei wird unbrauchbar, wenn auch nur ein Bit "gekippt" ist.
  • Bitfehler auf einer Audio-CD können toleriert werden und führen maximal zum Knacken; auf einer Daten-CD sind sie fatal.
  • ein Bitfehler in einem 2048 Bit langen Schlüssel führt unweigerlich dazu, dass sich ein Text nicht mehr entschlüsseln lässt (s. Kryptologie).

So gesehen kann es geschehen, dass ein einziges Bit entscheidend ist für Annahme oder Ablehnung, Erfolg oder Misserfolg, Sein oder Nichtsein...

Die Tatsache, dass nur ein falsches Bit ausreicht, um einen Fehler zu verursachen, wird in der Programmierung auch genutzt, um bei der Datenübertragung Fehler zu korrigieren. Hierfür wird eine Prüfsumme generiert, indem die Bits einer Datei oder Nachricht aufsummiert werden. Der sich ergebende Wert wird dann gespeichert. Später kann nach der Versendung der Nachricht oder Datei der Empfänger anhand dieser gespeicherten und ebenfalls mitgeteilten Prüfsumme durch erneute Berechnung verifizieren, dass die Datei oder Nachricht nicht manipuliert oder durch einen Übertragungsfehler beschädigt wurde.

Moderne Computer und Speichermedien verfügen über Speicherkapazitäten von Milliarden von Bits, so dass andere Einheiten üblich sind.

Die nächst größere Einheit ist das Byte (8 Bit, gelegentlich auch als Oktett bezeichnet). Allgemein gebräuchlich das Byte und die Verwendung der SI-Bezeichnungen Kilo, Mega, Giga und Tera um entsprechend große Informationsmengen und Adressräume zu bezeichnen. Allerdings wird hier nicht jeweils in Vielfachen von 1000 (kilo), sondern in Vielfachen von 210, also von 1024(Kilo) gerechnet (manchmal wird dieser geringe Unterschied aber nicht so genau genommen).

Ein Beispiel aus der Praxis:

die Kapazität einer CD-ROM wird z. B. mit 640 MB (Mega-Byte) angegeben. Das wären 640 × 1024 × 1024 × 8 = 5.368.709.120 Bit.

Tatsächlich wird auf der CD-ROM jedes einzelne Bit durch eine kleine, eingeprägte (oder mit einem Laser-Strahl erzeugte) Vertiefung (Pit) dargestellt. Das Nicht-Vorhandensein oder Vorhandensein solcher Vertiefungen (Land) an bestimmten Stellen entspricht hier aber nicht den Bit-Informationen 0 und 1, sondern der Übergang von Pit zu Land kennzeichnet eine 1. Damit längere gleiche Folgen hierbei keine Probleme machen, besteht ein Byte auf einer CD aus 14 Bits.

Genau genommen muss man aber für die Verwendung der SI-Präfixe Kilo, Mega, Giga und Tera jeweils einen Faktor von 1000 annehmen, nicht 1024. Will man 1024 Bytes angeben, so kann man dafür 1 KiB (Kibibyte), für 1024 × 1024 Bytes 1 MiB (Mebibyte), für 1024 × 1024 × 1024 1 GiB (Gibibyte) und für 1024 × 1024 × 1024 × 1024 1 TiB (Tebibyte) angeben.

Das Bit muss unterschieden werden vom Qubit, das in der Quanteninformationstheorie verwendet wird.