Bit
Vielfache von Bit | ||||||
---|---|---|---|---|---|---|
SI-Präfixe | Binärpräfixe | |||||
Name | Symbol | Bedeutung | Name | Symbol | Bedeutung | |
Kilobit | kbit | 103 bit | Kibibit | Kibit | 210 bit | |
Megabit | Mbit | 106 bit | Mebibit | Mibit | 220 bit | |
Gigabit | Gbit | 109 bit | Gibibit | Gibit | 230 bit | |
Terabit | Tbit | 1012 bit | Tebibit | Tibit | 240 bit | |
Petabit | Pbit | 1015 bit | Pebibit | Pibit | 250 bit | |
Exabit | Ebit | 1018 bit | Exbibit | Eibit | 260 bit | |
Zettabit | Zbit | 1021 bit | Zebibit | Zibit | 270 bit | |
Yottabit | Ybit | 1024 bit | Yobibit | Yibit | 280 bit |
Der Begriff Bit (binary digit) wird in der Informatik, der Informationstechnik, der Nachrichtentechnik sowie verwandten Fachgebieten in folgenden Bedeutungen verwendet:
- als Bezeichnung für eine Binärziffer;
- als Maßeinheit für die Datenmenge. Dabei ist 1 Bit die kleinste darstellbare Datenmenge, die beispielsweise durch eine Binärziffer dargestellt werden kann. Größere Datenmengen sind immer ganzzahlige Vielfache von 1 Bit.
- als Maßeinheit für den Informationsgehalt (siehe auch Shannon, Nit, Hartley). Dabei ist 1 Bit der Informationsgehalt, der in einer Auswahl aus zwei gleich wahrscheinlichen Möglichkeiten enthalten ist. Als Informationsgehalt können auch reellwertige Vielfache von 1 Bit auftreten.
Wortherkunft
Der Begriff Bit ist eine Wortkreuzung aus binary digit, englisch für Binärziffer. Der Begriff wurde von dem Mathematiker John W. Tukey vermutlich 1946, nach anderen Quellen schon 1943 vorgeschlagen. Schriftlich wurde der Begriff zum ersten Mal 1948 auf Seite eins von Claude Shannons berühmter Arbeit A Mathematical Theory of Communication[1] erwähnt. Die Bits als Wahrheitswerte benützte George Boole als erster.
Schreibweise
Es muss unterschieden werden zwischen dem allgemeineren Begriff Bit und der Maßeinheit Bit. Bei der Maßeinheit muss man wiederum unterscheiden zwischen ihrem Namen und ihrem Symbol in Gleichungen oder Größenangaben. Als Einheitensymbol für das Bit ist in IEC 60027-2[2] „bit“ festgelegt. In IEEE 1541 ist „b“ festgelegt.
Für die Bildung von Vielfachen der Maßeinheit Bit können sowohl die auf Zehnerpotenzen beruhenden SI-Präfixe als auch die auf Zweierpotenzen beruhenden Binärpräfixe verwendet werden (siehe Tabelle oben rechts).
Darstellung von Bits
Digitaltechnik
Jede Information ist an einen Informationsträger gebunden. Ein Informationsträger, der sich in genau einem von zwei Zuständen befinden kann, kann die Datenmenge 1 Bit darstellen. Folgende beispielhafte Sachverhalte können also eine Datenmenge von einem Bit darstellen:
- Die Stellung eines Schalters mit zwei Zuständen, zum Beispiel eines Lichtschalters mit den Stellungen Ein oder Aus.
- Der Schaltzustand eines Transistors, „geringer Widerstand“ oder „hoher Widerstand“.
- Das Vorhandensein einer Spannung, die größer oder kleiner als ein vorgegebener Wert ist.
- Eine Variable, welche einen von zwei Werten, zum Beispiel 0 oder 1, die logischen Wahrheitswerte wahr oder falsch, true oder false, high oder low, H oder L enthalten kann.
Der Wert eines oder mehrerer Bits wird in der Informatik allgemein als Zustand bezeichnet. In einem solchen Zustand kann ein physikalisches Element sein, zum Beispiel der erwähnte Transistor. Werden mehrere solche physikalische Elemente zu einer Einheit zusammengesetzt, hängt der Gesamtzustand dieser Einheit von den Zuständen aller einzelnen Elemente ab.
Binärdarstellung; Bits und Bytes
Anzahl n der Bits | Anzahl der Zustände |
---|---|
1 | 2 |
2 | 4 |
3 | 8 |
4 | 16 |
5 | 32 |
6 | 64 |
7 | 128 |
8 | 256 |
9 | 512 |
10 | 1024 |
11 | 2048 |
… | … |
16 | 65.536 |
… | … |
32 | 4.294.967.296 (4,3 Milliarden) |
… | … |
64 | 18.446.744.073.709.551.616 (18,4 Trillionen) |
Mit n Bits lassen sich 2n verschiedene Zustände darstellen. Mit beispielsweise zwei Bits können 2² = 4 verschiedene Zustände repräsentiert werden, nämlich 00, 01, 10 und 11. Mit vier Bits können 16 verschiedene Zustände dargestellt werden, mit acht Bits 256, und so weiter. Jedes zusätzliche Bit verdoppelt die Anzahl der möglichen darstellbaren Zustände, wie an der folgenden Tabelle abgelesen werden kann:
Moderne Computer und Speichermedien verfügen über Speicherkapazitäten von Milliarden von Bits. Speichergrößen werden daher in anderen Einheiten angegeben. Frühe Rechner benutzten Speichereinheiten zu 4 Bit, sog. Nibble. Im Allgemeinen verwendet man heute das Byte (ein Oktett von acht Bit) als Grundeinheit, seltener das Wort mit 16 bit. Bei Größenangaben von Speichermedien verwendet man Potenzen von 210 (= 1024) als Einheitenpräfixe (zum Beispiel entspricht ein Kibit 1024 Bit, die zu 128 Oktett-Byte gruppiert werden können - näheres siehe Byte).
Im Bereich der Datenfernübertragung wird das Bit als Grundeinheit bei der Angabe der Datenübertragungsrate verwendet - ISDN überträgt maximal 64 kbit/s (64.000 Bit pro Sekunde) auf einem Nutzkanal, Fast Ethernet 100 Mbit/s (100 Millionen Bit pro Sekunde) oder mehr. Die Fernmeldetechnik benutzt die Vorsätze für Maßeinheiten des internationalen Einheitensystems.
Daneben wird das Bit als Einheit verwendet:
- für die Angabe der Kapazität einzelner Speichermedien (hier zweckmäßigerweise mit Binärpräfixen); Beispiel: ein 512-Mibit-Chip (Mebibit, nicht zu verwechseln mit Megabit) enthält 229 Speicherzellen, die jeweils ein einzelnes Bit speichern können.
- für Busbreiten und die Verarbeitungsbreite auf Chipebene (Grund dafür ist die Möglichkeit von bitweise angewendeten Operationen und das Prinzip der Bit-für-Bit-Übertragung)
Quantität und Qualität
Bitfehler und Vorwärtsfehlerkorrektur
Allgemein gilt in der digitalen Welt, dass es keine „unwichtigen“ Bits gibt. Beispiele:
- zwei 64-Bit-Zahlen sind ungleich, wenn sie sich auch nur im niederwertigsten Bit unterscheiden. Das führt zum Beispiel zu einem Vertrauensproblem, wenn zwei digitalisierte Fingerabdrücke verglichen werden, und das Programm nicht so geschrieben ist, dass es mit kleinen Unterschieden „intelligenter“ umgehen kann.
- eine ausführbare Datei wird meist unbrauchbar, wenn auch nur ein Bit „kippt“, wenn also aus einer 0 fälschlich eine 1 wird oder umgekehrt.
- Nur ein einziger Fehler in der Bitfolge eines 2048 Bit langen Schlüssels zu einem verschlüsselten Text führt unweigerlich dazu, dass sich der Text nicht mehr entschlüsseln lässt (siehe Kryptologie).
- Bitfehler auf Audio-CDs können toleriert werden und führen maximal zu Geräuschfehlern; auf Daten-CDs sind sie fatal, weshalb diese zusätzliche Fehler-Korrektur-Codes enthalten.
So gesehen kann es geschehen, dass ein einziges Bit entscheidend ist für Annahme oder Ablehnung, Erfolg oder Misserfolg, in sicherheitsrelevanten Systemen wie etwa in der Raumfahrt sogar für Leben oder Tod.
Der Tatsache, dass nur ein falsches Bit ausreicht, um unerwartete Ergebnisse zu produzieren, kann man dadurch begegnen, dass man Informationen redundant kodiert. Die einfachste Art der redundanten Codierung besteht darin, einem Datenblock als Prüfsumme die binäre Quersumme, das so genannte Paritätsbit hinzuzufügen. Die Paritätsprüfung erlaubt es festzustellen, wenn ein einzelnes Bit im Block falsch übertragen wurde. Ist ein Fehler aufgetreten, kann der Empfänger eine Neuübermittlung anfordern (so etwa im TCP/IP-Protokoll).
Wenn mehr als ein redundantes Bit pro Datenblock hinzugefügt wird, spricht man von Vorwärtsfehlerkorrektur (forward error correction, FEC); sie wird bei manchen Datenträgern und bei vielen Datenübertragungsverfahren eingesetzt und erlaubt es, fehlerhaft ausgelesene beziehungsweise empfangene Bits zu korrigieren, solange die Fehlerdichte unterhalb einer kritischen Schwelle bleibt. So ist zum Beispiel auf einer CD jedes Byte über eine Strecke von 2 cm verteilt und mit anderen Bytes zusammen als Reed-Solomon-Code abgespeichert, so dass beliebige 1-mm-Streifen einer CD fehlen können und dennoch die ganze Information vorhanden ist. Der Preis für die Vorwärtsfehlerkorrektur ist der Speicherplatz (oder die Datenrate) für die redundanten Bits – der Speicherplatz von CDs wäre ohne solche Maßnahmen ca. 17 % größer, Netzwerke 40 % schneller, Mobiltelefone 200 % leistungsstärker, bei den letzten beiden unterschiedlich je nach Typ.
Datenkompression
Oft enthalten die kodierten Informationen selbst Redundanz. Durch verschiedenartige Kompressionsverfahren kann die entsprechende Information auf wesentlich weniger Speicherplatz untergebracht werden. Siehe dazu auch Entropiekodierung.
Je nach Art der Information ist dabei auch eine verlustbehaftete Kompression möglich, die zusätzlich den Speicherbedarf verringert. Der Informationsverlust wird dabei als (relativ) unwesentlich betrachtet – das ist vor allem bei Bild- und Tondaten möglich.
Qubits in der Quanteninformationstheorie
Das Bit muss unterschieden werden vom Qubit (Quantenbit), das in der Quanteninformationstheorie verwendet wird.
Siehe auch
- Information
- Byte
- Bitwertigkeit (MSB, LSB)
Weblinks
Quellen
- ↑ Claude Elwood Shannon: A Mathematical Theory of Communication. Bell System Technical Journal, Band 27, Seiten 379–423 und 623–656, Juli und Oktober 1948. [1]
- ↑ IEC 60027-2, Ed. 3.0, (2005-08): Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics.