Bit
Der Begriff Bit wird in der Informatik und Informationstechnik sowie verwandten Fachgebieten in unterschiedlichen Zusammenhängen verwendet. Sowohl der Gebrauch als auch die Schreibweise (Bit oder bit) sind dabei uneinheitlich und variieren in der Literatur; einige häufig, aber nicht immer verwendete Konventionen finden sich im Abschnitt Schreibweise. Es handelt sich um eine Wortkreuzung aus binary digit, englisch für Binärziffer. Der Begriff wurde von dem Mathematiker John W. Tukey vermutlich 1946, nach anderen Quellen schon 1943 vorgeschlagen. Schriftlich wurde der Begriff 1948 zum ersten Mal auf Seite 1 von Claude Shannons berühmter Arbeit A Mathematical Theory of Communication erwähnt. Allen Verwendungsweisen im Zusammenhang mit Information und Informationstechnik ist gemeinsam, dass ein Bit oder bit als ein Maß für die Größe bzw. den Umfang von Daten oder Informationen betrachtet wird.
Mögliche Verwendungen sind (da die Groß- und Kleinschreibung variiert, wird hier von einer Unterscheidung abgesehen):
- Ein Bit als Speicherzelle
- Bit als Einheit für eine Datenmenge (siehe auch Nit oder Hartley).
- Das Bit als Einheit für den Informationsgehalt (siehe auch Shannon).
Darstellung von Bits in der Digitaltechnik
Jede Information ist an einen Informationsträger gebunden. Die Informationsmenge 1 Bit entspricht der Information, welche von zwei möglichen Begebenheiten zutrifft. Folgende beispielhafte Sachverhalte können also eine Informationsmenge von einem Bit speichern:
- Die Stellung eines Schalters mit zwei Zuständen, zum Beispiel eines Lichtschalters mit den Stellungen EIN oder AUS.
- Der Schaltzustand eines Transistors, "geringer Widerstand" oder "hoher Widerstand".
- Das Vorhandensein einer Spannung, die größer oder kleiner als ein vorgegebener Wert ist.
- Eine Variable, welche einen von zwei Werten, zum Beispiel 0 oder 1, die logischen Wahrheitswerte Wahr oder Falsch, high oder low, H oder L enthalten kann.
Der Wert eines oder mehrerer Bits wird in der Informatik allgemein als Zustand bezeichnet, da ein Bit in der Anwendung von einem physikalischen Element, zum Beispiel dem erwähnten Transistor, dargestellt wird, welches einen bestimmten Zustand besitzt. Werden mehrere Elemente zu einer Einheit zusammengesetzt, hängt der Gesamtzustand dieser Einheit vom Zustand jedes einzelnen Elements ab und es ergeben sich wiederum mehrere verschiedene Zustände dieser Einheit.
Binärdarstellung; Bits und Bytes
Mit n Bits lassen sich 2n verschiedene Zustände darstellen, so kann sich beispielsweise eine Einheit aus zwei Bits in vier verschiedenen Zuständen befinden: 00, 01, 10 und 11. Weiterhin können mit vier Bits 16 verschiedene Zustände gespeichert werden, mit acht Bits 256, und so weiter. Jedes zusätzliche Bit verdoppelt die Anzahl der möglichen darstellbaren Zustände. Repräsentieren diese Zustände ganze Zahlen durch Codierung im Dualsystem, so ist ein Bit umso gewichtiger (fachsprachlich: höherwertiger), je weiter links es in der niedergeschriebenen Bitfolge steht (siehe auch Stellenwertsystem).
Moderne Computer und Speichermedien verfügen über Speicherkapazitäten von Milliarden von Bits. Speichergrößen werden daher in anderen Einheiten angegeben. Im allgemeinen verwendet man hier das Byte (ein Oktett von acht Bit) als Grundeinheit und Potenzen von 210 (= 1024) als Einheitenpräfixe (näheres siehe Byte). Im Bereich der Datenübertragung hat sich jedoch das Bit als Grundeinheit bei der Angabe der Datenübertragungsrate gehalten - ISDN überträgt maximal 64 kbit/s (64.000 Bit pro Sekunde) auf einem Kanal, Fast Ethernet 100 Mbit/s (100 Millionen Bit pro Sekunde). Anders als beim Byte hält man sich hier streng an das SI-System für Vorsilben.
Daneben wird das Bit als Einheit verwendet:
- für die Angabe der Kapazität einzelner Speicherchips (hier allerdings mit Binärpräfixen); Beispiel: ein 512-Mb-Chip (Megabit, nicht zu verwechseln mit MB) speichert 229 Bits = 226 Bytes, also 64 MB, davon acht Stück auf einem Speicherriegel ergibt ein 512-MB-DIMM
- für Busbreiten bzw. die Verarbeitungsbreite auf Chipebene (Grund dafür ist die Möglichkeit von bitweisen Operationen bzw. das Prinzip bitweiser Übertragung)
Bitfehler und Vorwärtsfehlerkorrektur
Allgemein gilt in der digitalen Welt, dass es keine "unwichtigen" Bits gibt. Beispiele:
- zwei 64 Bit-Zahlen sind ungleich, wenn sie sich auch nur im niederwertigsten Bit unterscheiden. Das führt z. B. zu einem Vertrauensproblem, wenn zwei digitalisierte Fingerabdrücke verglichen werden, und das Programm nicht so geschrieben ist, dass es mit kleinen Unterschieden "intelligenter" umgehen kann.
- eine ausführbare Datei wird meist unbrauchbar, wenn auch nur ein Bit "kippt", wenn also aus einer 0 fälschlich eine 1 wird oder umgekehrt.
- Nur ein einziger Fehler in der Bitfolge eines 2048 Bit langen Schlüssels zu einem verschlüsselten Text führt unweigerlich dazu, dass sich der Text nicht mehr entschlüsseln lässt (siehe Kryptologie).
- Bitfehler auf Audio-CDs können toleriert werden und führen maximal zu Geräuschfehlern; auf Daten-CDs sind sie fatal, weshalb diese zusätzliche Fehler-Korrektur-Codes enthalten.
So gesehen kann es geschehen, dass ein einziges Bit entscheidend ist für Annahme oder Ablehnung, Erfolg oder Misserfolg, in sicherheitsrelevanten Systemen wie z. B. in der Raumfahrt sogar für Sein oder Nichtsein...
Der Tatsache, dass nur ein falsches Bit ausreicht, um unerwartete Ergebnisse zu produzieren, kann man dadurch entgegnen, dass man Informationen redundant codiert. Die einfachste Art der redundanten Codierung besteht darin, einem Datenblock als Prüfsumme die binäre Quersumme, das so genannte Paritätsbit hinzuzufügen. Die Paritätsprüfung erlaubt es festzustellen, wenn ein einzelnes Bit im Block falsch übertragen wurde. Ist ein Fehler aufgetreten, kann der Empfänger eine Neuübermittlung anfordern (so z.B. im TCP/IP-Protokoll).
Wenn mehr als ein redundantes Bit pro Datenblock hinzugefügt wird, spricht man von Vorwärtsfehlerkorrektur (forward error correction, FEC); sie wird bei manchen Datenträgern und bei vielen Datenübertragungsverfahren eingesetzt und erlaubt es, fehlerhaft ausgelesene beziehungsweise empfangene Bits zu korrigieren, solange die Fehlerdichte unterhalb einer kritischen Schwelle bleibt. So ist z. B. auf einer CD jedes Byte über eine Strecke von 2 cm verteilt und mit anderen Bytes zusammen als Reed-Solomon-Code abgespeichert, so dass beliebige 1 mm-Streifen einer CD fehlen können und dennoch die ganze Information vorhanden ist. Der Preis für die Vorwärtsfehlerkorrektur ist der Speicherplatz (bzw. die Übertragungsbandbreite) für die redundanten Bits -- der Speicherplatz von CDs wäre ohne solche Maßnahmen ca. 17% größer, Netzwerke 40% schneller, Mobiltelefone 200% leistungsstärker, bei den letzten beiden unterschiedlich je nach Typ.
Datenkompression
Oft enthalten die kodierten Informationen selbst Redundanz. Durch verschiedenartige Komprimierverfahren kann die entsprechende Information auf wesentlich weniger Speicherplatz untergebracht werden. Siehe dazu auch Entropiekodierung.
Je nach Art der Information ist dabei auch eine verlustbehaftete Kompression möglich, die zusätzlich den Speicherbedarf verringert. Der Informationsverlust wird dabei als (relativ) unwesentlich betrachtet - das ist vor allem bei Bild- und Tondaten möglich.
Schreibweise
Das Wort Bit wird großgeschrieben, wenn sich um die Bezeichnung physikalischer Bits handelt. Zum Beispiel: Der Datenbus besitzt eine Breite von 16 Bit. Die Angabe von Datenraten (bit pro Sekunde) wird kleingeschrieben. Zum Beispiel: Ethernet 10BaseT mit einer Datenrate von 10 Mbit/s.
Potenzschreibweisen
Je nach Verwendungsgebiet erfolgt die Angabe der Bitmenge in unterschiedlichen Potenzschreibweisen. Dies kann insbesondere dann zu Verwechslungen führen, wenn die verwendete Basis nicht mehr angegeben, sondern nur pauschal von Kilobit, Megabit usw. gesprochen wird. Bei gespeicherten Datenmengen werden in der Regel Zweierpotenzen verwendet, so dass 1 Kbit = 210 bit = 1024 bit sind. Man beachte, dass der Vorsatz K großgeschrieben wird und auch nicht als Kilo ausgesprochen wird, sondern nur als Ka. Bei übertragenen Datenmengen pro Zeiteinheit werden hingegen Zehnerpotenzen zugrundegelegt, so dass 1 kbit/s = 103 bit/s = 1000 bit/s (1 Kilobit/Sekunde) sind. Analoge Unterschiede ergeben sich für Mbit und Mbit/s, Gbit und Gbit/s usw. Ist die gemeinte Potenz bei Verwendung von Begriffen wie Kilobit, Megabit usw. nicht eindeutig aus dem Zusammenhang ersichtlich, so sollte man sie explizit angeben. Weitere Informationen zum Thema bietet auch diese Hilfeseite von freenet.de.
Qubits in der Quanteninformationstheorie
Das Bit muss unterschieden werden vom Qubit (Quantenbit), das in der Quanteninformationstheorie verwendet wird.