Zum Inhalt springen

Diskussion:Bit

Seiteninhalte werden in anderen Sprachen nicht unterstützt.
aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 8. August 2007 um 09:04 Uhr durch Kölscher Pitter (Diskussion | Beiträge) (Speicher). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Letzter Kommentar: vor 18 Jahren von Kölscher Pitter in Abschnitt Speicher

Unklarheiten im Artikel

Benutzer:BJOTO
Als Laie hätte ich echte Probleme damit zu verstehen was mit all dem gemeint ist was da steht.
Vielleicht sollte man erstens mal darauf eingehen das ein Bit eine anliegende Spannung an einem Bereich ist Spannung = 1 und keine 0 und somit erst mal ein Zustand. Ein Prozessor, Speicher verarbeitet nur diese Zustände -> Richtig ?

Wie werden diese Zustände wieder umgewandelt ?
Binäre berechnung von Zahlen mit hilfe der BIT ?
Darstellung von Buchstaben und Zahlen mit BIT
Bit Arrays
Erklärungen :
Halbbyte = 4 BIT - Halbwort
Vollbyte = 8 BIT - Vollwort
Berechnung und Darstellung wie hier ? : http://www.thefox.ch/prog/decbin.php
Mir persönlich reicht dieser Artikel überhaupt nicht !
Wer anderer Meinung ist kann das Überarbeitungszeichen gerne wieder rausnehmen.
THX BJOTO -- 14:30, 24. Feb 2007 (CEST)


der Übergang von Pit zu Land kennzeichnet eine 1 - und was ist dann die 0? Übergang von Land zu Pit oder keine Änderung? -- WikiWichtel fristu 18:59, 6. Mär 2004 (CET)


Ich habe diesen Absatz mal entfernt:

Tatsächlich wird auf der CD jedes einzelne Bit durch eine kleine, eingeprägte, oder mit einem Laser-Strahl eingebrannte, Vertiefung dargestellt. Das Nicht-Vorhandensein ("Land") oder Vorhandensein ("Pit") solcher Vertiefungen an bestimmten Stellen entspricht hier aber nicht den Bit-Informationen 0 und 1, sondern der Übergang von Pit zu Land kennzeichnet eine 1. Damit längere Folgen von Nullen hierbei keine Probleme machen, werden für ein Byte (8 Bits) auf einer CD 14 Bits tatsächlich aufgezeichnet.

Er bringt hier nicht so viel, da bei der Datenspeicherung im ISO9660 Format auf einer CD halt nur die 8 bit gezählt werden, da auch nur die 8 bit genutzt werden können. Dass dies bei anderen Schreibmethoden anders ist, spielt hier keine Rolle. --Supaari sag'smir! 15:36, 27. Okt 2004 (CEST)

Nun es ist so: Jeder Übergang Pit-Land und Land-Pit zählt als 1, jede nicht-änderung zählt als 0. Je 2 1er haben immer zwischen 2 und 11 0er Zwischen sich. Andere Zahlen fallen dann raus aus dem 14-Bit-Code. So wird aus einem 14 Bit-Code ein 8-Bit-Code. Technisch ist es schwierig weniger als 2 Nullen auf jede 1 folgen zu lassen. Welche 14-Bit-Folge welcher 8-Bit Folge entspricht ist dabei im sogenanntm "Red Book" festgehalten.


Definition unklar

Es gibt noch andere wichtige Fragen in dem Zusammenhang, die man einvernehmlich klären sollte. Ein Artikel Bit sollte meiner Meinung nach die Definition beinhalten -kleinste Informationseinheit- dann einen Verweis zu einer "vernünftigen" Definition von Information, und sodann Möglichkeiten zur "Verkörperung" von solchen Informationen. Also: Ein Bit existiert genau dann, wenn ein Informationsträger zwei Zustände annehmen kann, ein Mechanismus besteht, der gezielt einen solchen Zustand herstellt und ein weiterer Mechanismus besteht, der das vorhandensein dieses Zustandes feststellen kann. Ansonsten macht es keinen Sinn, über ein Bit zu reden. Weiterhin muss man sich klarmachen, dass das Bit dann ein Symbol ist für ein hoch komplexes Etwas, das in einer anderen (Begriffs-)Welt existiert.

Ob jetzt ein Bitwert 0 als Land oder See repräsentiert wird, ist eine technologische Frage. Oft ist es sogar sinnvoll, mehre Bits zusammenzufassen zu einer größeren Informationseinheit und diese dann redundant abzuspeichern. Das kann man gut diskutieren, dazu muss aber zuerst der "philosophische" Begriff losgelöst von der Technologie geklärt werden. RaiNa 11:06, 7. Mär 2004 (CET)


So gesehen kann es geschehen, dass ein einziges Bit entscheidend ist für Annahme oder Ablehnung, Erfolg oder Misserfolg, Sein oder Nichtsein...

Sein oder Nichtsein?? --brunft 20:32, 8. Mär 2004 (CET)


Zugegeben etwas theatralisch - aber das gehört doch dazu... Und letztlich stimmts auch: ich kämpfe gerade um das (über)Leben meiner zweiten Platte, wo sich ein paar Sektoren nicht mehr lesen lassen.

Zu fristu: umgekehrt genau so (von Land nach Pit = 1). Zu RaiNa: ohne diese Mechanismen wäre das Ganze recht witzlos (und die Technologie spielt wirklich eine sehr untergeordnete Rolle). Ich finde den Artikel mittlerweile recht rund. Information ist übrigens wohl definiert: als Wissen, das zur Problemlösung benötigt wird. Hilft hier aber nicht so sehr weiter... --Myr 19:05, 9. Mär 2004 (CET)

Kilo, Mega, ...

In einem Punkt ist der Artikel schlichtweg falsch. Die Bezeichnungen Kilo, Mega, ... Bezeichnen auch in der IT Mengen von Tausend bzw. Millionen. Die Richtigen Präfixe kann man unter http://physics.nist.gov/cuu/Units/binary.html finden. Dazu gibt es Normen von IEC und IEEE sowie einen Entwurf von DIN die exakt die selben Präfixe verwenden. -- Nicht Registriert, 04:40, 24. Mai 2004 (CET)


Eine Umstrukturierung wie sie RaiNa vorschlägt finde ich ebenfalls sehr sinnvoll.

Der Kritik von 'Nicht Registriert' bezüglich kilo, mega kann ich nur zustimmen. Allgemein lässt sich sagen:

-) In der Halbleitertechnik (Speicher, CPU, ..) bedeuten die Präfixe 210
-) Bei den Festplatten bedeuten die Präfixe 103

Einzig eindeutiges Präfix sind k und K:

-) k (klein geschrieben) steht für 1000
-) K (gross geschrieben) steht für 1024

Leider werden k und K von vielen nicht richtig benutzt was letztendlich wohl zu den Bestrebungen der Normungsinstitue mit KiBi etc.

20. August 2004 by schg

Muss hier zwar nicht nochmal diskutiert werden. k vs. K ist aber unsinnig, da es bei M eben nicht funktioniert. M steht fuer Mega, m fuer milli, bei G waere es Giga vs. Gramm. Letztlich steht K schon fuer Kelvin. --82.141.58.95 00:09, 1. Dez 2005 (CET)

Definitionsversuche

Die ursprüngliche Definition des Bit kommt wohl aus der Nachrichtentechnik:

-) Das Bit ist die Einheit der Information
-) Das Bit ist der negative 2er-Logarithmus der Wahrscheinlichkeit

In einem System in dem die Wahrscheinlichkeit 50% ist dass etwas zutrifft ist die Information (Informationsmenge?) 1 Bit.

Beispiel 1
In einem System das 2 Zustände annehmen kann (zB 0 oder 1, High oder Low, Spannung oder keine Spannung) ist die Wahrscheinlichkeit für jeweils einen der beiden Zustände 50%.

Mit üblichen Taschenrechner funktioniert es so:

So wird es dann normalerweise auch in der Informationstechnik angewendet und stellt damit auch die kleinste Informationsmenge der IT dar.

Beispiel 2
Pferderennen, ich setze auf einen Aussenseiter dem 5% Siegeschancen zugestanden werden. Meine Erwartungshaltung dass es nicht gewinnt ist daher 95%:

Wenn das Pferd nun wirklich nicht gewinnt Enhalten die Nachrichten im Radio eine Informationsmenge von 0{,}014 Bit -> No, Na - das hättens nicht durchsagen brauchen, hat ja eh jeder damit gerechnet!
Gewinnt nun aber das Pferd ergibt dies eine Informationsmenge von

Wird nun in den Nachrichten gebracht dass das Pferd doch gewonnen hat dann ist jeder überrascht - Oh Wunder. Diese Nachricht hat einen grossen Informationsgehalt!

20. August 2004 by schg


Ich glaube, Du meinst die Maßeinheit Shannon für den Informationsgehalt (nicht Information oder Informationsmenge). Bit ist aber die Maßeinheit für die Informationsmenge (Datenmenge). Da Bit von Binary Digit, also Ziffer, die zwei Zustände darstellen kann, kommt, würde ich sagen bezeichnet die Einheit Bit die Menge an Information (ohne den Informationsgehalt zu beachten), die gemessen wird in: Verwendete Anzahl von binären Variablen zur Abbildung der Information. --Supaari sag'smir! 19:12, 20. Sep 2004 (CEST)

"JA/NEIN" Begrifflichkeit

Es ist irrefuehrend, zu stark auf dieses "JA/NEIN" abzuheben. Ein bit kann zwei Zustaende halten. Ob das "JA/NEIN" ist, oder Teil einer groesseren Sache, ist eine Frage der _Interpretation_. Noch irrefuehrender ist es dann, wenn in der Erklaerung das bit durch einen Schalter "JA/NEIN" implementiert wird. Es koennten ja mal 12 Volt versus 5 Volt sein (nur des Arguments wegen), dann ist Schluss mit "Strom: ja/nein", ein bit ist es aber immer noch! Naja vielleicht ist hat es sich didaktisch als brauchbar erwiesen, aber ich denk schon lang nicht mehr an ja/nein, wenn ich bit hoere.

Bit und bit

1 bit

  • 1 bit ist die Einheit, in der Binäreintscheidungen gezählt werden.
  • Die Schreibweise beginnt mit einem Kleinbuchstaben

Bit

  • Das Bit (Plural: Bits) bezeichnet dagegen eine Binärziffer, d.h. eine einzelne Stelle eines Binärcodewortes
  • Die Schreibweise beginnt mit einem Großbuchstaben.
  • Das Wort ist die Abkürzung für Binäry Digit (Binärziffer)
Das habe ich auch schon mal gehört. Ich denke, das wäre eine wichtige Anmerkung, die im Artikel beachtet werden sollte, wenn es denn wirklich stimmt. Kannst Du vielleicht eine Quelle nennen, damit sicher ist, dass wir keine Randgruppenkonventionen in den Artikel schreiben? --Supaari sag'smir! 15:46, 27. Okt 2004 (CEST)
In der deutschen Sprache ist das äußerst unwahrscheinlich, meiner Ansicht nach falsch, da Substantive in Deutsch standardmäßig immer groß geschrieben werden (Ausnahme sind lediglich manche Markennamen, oder wenn keine Großbuchstaben verwendet werden (können)). Vielleicht kommt diese Unterscheidung aus einer anderen Sprache? --Hutschi 15:54, 27. Okt 2004 (CEST)
Hmm, ich habe zwar gerade ein Buch (W. Alex und G. Bernör, Einführung in UNIX und C), was das genauso erklärt, aber ich denke, ich kann Hutschi recht geben, denn fast alle anderen deutschsprachigen Informatik-Grundlagen-Skripte, die ich im Internet gefunden habe benutzen "Bit" ausschließlich groß geschrieben. Egal ob es gerade als Maßeinheit oder als Abkürzung für Binärziffer verwendet wird. Über das Plural-s bei mehreren Bits sind sich die Autoren allerdings uneinig. Ich denke aber auch bei einer Maßeinheit kann ein Plural-s nicht schaden, z.B. heißt es ja auch 22 Jahre oder 2 Gigaflops. Nach einigem Überlegen komme ich außerdem zu der Ansicht, dass sich die Angabe der Informationsmenge (gemessen in Bit) nicht von der Angabe einer Anzahl von Binärziffern unterscheidet. X Binärziffern stellen immer eine Informationsmenge von X Bit dar und X Bit sind nur X Bit, wenn sie durch X Binärziffern dargestellt werden können. Das einzige, was vielleicht im Artikel noch erwähnt werden sollte, ist, dass das Kürzel für Bit b und für Byte B ist. --Supaari sag'smir! 18:28, 27. Okt 2004 (CEST)
Ich stimme Hutschi im Wesentlichen auch zu. Substantive werden in Deutschland groß geschrieben, egal aus welcher Sprache sie entliehen sind. Einheiten werden dagegen in irgendeiner Norm geregelt. Im Bereich der Informationstechnik sind die Normen zum Teil noch sehr jung (2000), so dass zur Zeit langsam eine Umstellungsphase einsetzt. Im folgenden möchte ich das am Beispiel Meter und Mol erläutern:
Werden Meter und Mol als "normales" Wort gebraucht, so schreibt man sie groß. Also "Ich habe mehrere Meter Ethernet-Kabel gekauft." und "Ich habe ein paar Mol Sauerstoff für schlechte Zeiten deponiert." ;-) Demgemäß muss es dann wohl heißen "Auf deinem Speicherchip kann man aber nur wenige Bit speichern." (Großschreibung ist denke ich klar hier. Aber wie sieht es mit der Pluralbildung aus?)
Bei Einheiten gelten dagegen die Regeln von Normen. Im Falle von Bit dürfte das eine IEC-Norm sein. Sie ist mir leider nicht zugänglich; vielleicht kann da jemand aushelfen. Aber wieder zurück zu den Beispielen: "Ich habe 10 m Ethernet-Kabel gekauft." "Ich habe 4 mol Sauerstoff für schlechte Zeiten deponiert." (mol klein hier). Bei Bit weiß ich nicht, ob IEC "b", "bit" oder beides als Einheit definiert. Nachdem es "kbit/s" heißt, kann aber das groß geschriebene "Bit" eine Einheit sein. Einheiten werden mathematisch beliebig zusammengesetzt, ohne Wechsel der Schreibung. Also etwa: "Auf deinem Speicherchip kann man aber nur 200000 bit speichern." Vielleicht auch: "Auf deinem Speicherchip kann man aber nur 200000 b speichern." Dazu passen dann "10 kbit/s" und "10 kb/s". Eine Unterscheidung nach Datenrate und Datenmenge ist bei Einheiten normalerweise nicht vorgesehen. Hier werden mehrere Einheiten einfach zusammengesetzt. Walter

Laienfrage

Als Laie erhoffte ich mir, zu erfahren, wie ein Computer mit nur 2 Zuständen, (Strom, nicht Strom), komplexe Aufgaben erfüllt. Ich meine, selbst das Morsealphabet hat zwar im Prinzip auch nur 2 Zeichen, aber effektiv doch 3, nämlich die Pause zwischen den Wörtern, denn ansonsten wüsste man ja nicht, wo welches Wort anfängt und welches aufhört. Versteht ihr mein Verständnisproblem? Ich versuchs mal so: Die kleinste Informationseinheit ist doch ein Bit, für den Computer jedoch ein Byte, also 8 Bit. Doch wie versteht der Computer, wo und wann ein Byte anfängt und aufhört? Sorry, bin eben ein Laie...

Das ist tatsächlich keine triviale Frage. Beim Morsealphabet ist es so, dass es in Wirklichkeit drei Zeichen hat: kurzer Ton, langer Ton und Pause. (Eventuell sogar 4: kurzer Ton, langer Ton, kurze Pause, lange Pause.) Das Feststellen, wann ein Text beginnt, erfolgt über die Pause und meist mit einer Anfangskodierung (Meldung des Senders).
Beim Computer gibt es so etwas ähnliches: Wenn ein Computer ein externes Signal empfängt, muss er zunächst den Anfang feststellen. Dazu kann ein zweites Signal dienen, dass den Zustand angibt: Ich beginne jetzt zu senden. Es kann aber auch einfach eine genügend lange Pause da sein. Ein Bit kann auch durch Frequenzunterschiede oder Phasenverschiebungen dargestellt werden. Beispiel: 1kHz-Ton=1 2Khz-Ton=0. Man muss noch eine Vereinbarung zur Länge der Töne treffen. Analog zum Morsealphabet könnte man nach jedem Bit aber auch eine Pause einlegen. Auf elektronischen Speichern kann der Platz eines Bits festgelegt sein, z.B. eine spezielle Speicherzelle enthält die Information. Auf einer Festplatte kann eine Position festgelegt sein, die durch eine Synchronspur bestimmt ist. Es sind aber auch viele andere Verfahren möglich. Ich habe noch vor etwa 20 Jahren an einem Computer gearbeitet, an dem man Bits mit Hilfe einer Art Klaviatur eingeben konnte, also Schaltern, die jeweils ein Bit darstellen. Auf Lochbändern ist die Position eines Bits durch seinen Platz und durch ein (kleineres) Positionsloch bestimmt. Das eigentlich wesentliche ist, dass man zwei verschiedene Zustände unterscheiden können muss und entsprechend zuordnen können muss. Solche Zustände können auch Zustandsänderungen sein, z.B. der Zeitpunkt des Umschaltens. Um festzulegen, wann ein Byte beginnt, gibt es auch verschiedene Möglichkeiten. Zum Beispiel ebenfalls die Position im Speicher. Bei einem Datenstrom (Telefonleitung) kann man auch mit einem Startbit beginnen. Dann folgt das Byte. Man kann aber auch ein zweites Signal senden, dass das Byte anzeigt. Wichtig ist, dass Sender und Empfänger sich auf das entsprechende Verfahren verständigen. --Hutschi 15:28, 4. Mär 2005 (CET)


Die kleinste Einheit ist auch für einen PC 1 Bit. Dass 8 Bit zu einem Byte zusammegefasst werden liegt daran, dass für die Kodierung von Zeichen verschiedene Bitmuster verwendet werden. (ASCII-Code ist ein 8Bit Code, dh. jedes Zeichen hat ein äquvalentes 8 Bit Muster). Wenn für jedes Zeichen immer gleich viel Bits verwendet werden, so weis der Computer auch wann ein Zeichen (oder auch Byte) anfängt und wo es aufhört. Codes mit immer gleicher sogenannter Wortlänge werden Blockcodes genannt. Mit diesen Blockcodes arbeitet normalerweise jeder Computer, es gibt dennoch Ausnahmen in denen keine Blockcodes verwendet werden (zB gepackte Dateien).
In der Codierung gibt es Verfahren um für die Zeichen eines Alphabets verschieden lange Bitmuster zu verwenden. In diesen Fällen kann der Computer nicht davon ausgehen dass ein Zeichen 8 Bit lang ist. Um dennoch jedes Zeichen richtig zu erkennen muss die Fano-Bedingung gelten, kurz es darf keine Kombination von Bitmustern möglich sein die ein anderes Zeichen ergibt. Eine Codierungsverfahren das immer die Fano-Bedingung einhält ist das Huffman-Codierung.
Als dritte Möglichkeit die für den Computer einen eindeutige Zuordnung für jedes Byte ermöglicht wäre eine Escapesequenz. So wie bei dem Morsealphabet die Pause. Wird aber meines Wissens so in der Form nicht verwendet. Es gibt zwar bei Bussystemen die Tristatetreiber die einen dritten hochohmigen Zustand erzeugen damit ein Register von dem Bus "getrennt" ist, sonst entstehen Kurzschlüsse. Hat aber mit der Problematik nur sehr wenig zu tun.
-- DwG 18:50, 28. Jan 2006 (CET)

Megabit

Die Speicherkapazität von Modulen z.B von Konsolen wie dem Neogeo, GBA oder N64 werden in Megabit angegeben, dabei ist war stets das achtel eines Megabytes gemeint, also des heutzutage Mebibytes. Kann mir mal jemand sagen wieso das nicht in der Tabelle steht?

Das steht unter Megabit nur Mbit = 10hoch6 oder 2hoch20 also 1000000 oder 1028576 Bytes, aber ein Megabit ist doch was ganz anderes nämlich nur ein achtel davon!

Also ich seh das so, die IECC oder wie diese Verbrecher heißen, haben das alte orginale Megabyte umdefiniert zum mebibit, aus dem alten Megabyte haben sie dann das 10hoch6 Megabit gemacht, das dieses selber aber schon vergeben war, nämlich für die Speicherkapazität von Chips haben sie dabei völlig ignoriert.

Jetzt haben wir das alte wie das neue Megabit einmal für 10hoch6 und einmal für 128 kibibit (früher Kilobyte) Diese Verbrecher haben also nicht nur alle Bezeichnungen verdoppelt für lauter neuer 10er Potenzen die eh kaum gebrächlich waren ausser den Festplattenkapazität-Fakern, sie haben dabei auch das alte klassische Megabit auch einfach ersatzlos gestrichen, das steht jetzt nur noch irgendwo im Raum und nirgends und keiner weiß so Recht in welche Norm das gehört!

Ich könnte ausrasten, das irgendwie im Kopf zu behalten, ist nämlich nicht schwieriger oder leichter als wie früher mit den 1,44Mbyte Disketten die in Wirklichkeit auch das Megabyte zu 1000 Kilobte umdefiniert haben!!

Ich finde die Wikipedia hat hier völlig voreilig neue Vorgaben zum Standard erklärt und ist überhaupt nicht auf die Probleme die daraus resultieren eingegangen! Niemand hatte das Recht die alten Binärpräfixe im Namen zu ändern, nur wegen lauter dämlicher 10er Potenzen. Damit ist man den Festplatten-Fälschern zwar entgegen gekommen, alle Ehrlichen vorher, eben z.B die Mbit-Fraktion wird aber dadurch in die Ecke gestellt, das ist eine ganze gemeine Nachläßigkeit der Iecc Bürokraten und der Wikipedia-wir-machen-alles-neue-mit-egal-wie-doof Fraktion! 217.88.148.130 01:57, 24. Nov 2005 (CET)

Das Problem äußerte sich im Artikel dann logischerweise schon in diesem Satz: für die Angabe der Kapazität einzelner Speicherchips (hier allerdings mit Binärpräfixen); Beispiel: ein 512-Mb-Chip (Megabit, nicht zu verwechseln mit MB)

Das ist es! Es geht jetzt nur noch darum etwas (nicht zu verwechseln) Die neue Mbit Definition ist nämlich mit der gebräuchlichen für Chips überhaupt nicht in Einklang zu bringen! So macht man Standards alte wie neue kaputt und zieht sie ins lächerliche! Das geht offenbar schon soweit das man nichtmal mehr weiß was ein Bit ist, früher war das mal 1 oder 0 bzw. Ja oder nein!

Ich glaub ich schau jetzt Tron, da war die Welt noch in Ordnung... 217.88.148.130 02:33, 24. Nov 2005 (CET)

Gewoehne Dir doch bitte einen besseren Ton an und lies Dir den Artikel Internationales Einheitensystem durch. Auch Du wirst in der Schule gelernt haben, wofuer Kilo und Mega stehen. Die Legende vom boesen Festplattenhersteller herauszukramen ist einfach nur traurig. Hier eine Diskussion anzufangen ist sowieso ueberfluessig, da dies bereits an anderer Stelle z.B. Diskussion:Byte erfolgt ist. --82.141.58.95 00:19, 1. Dez 2005 (CET)


Mbit vs Mbit/s

Also was ganzen unten dazu im Artikel steht, dass bei Mbit das M mit der Basis zwei 'arbeitet' und bei Mbit/s die Basis 10 verwendet wird höre ich zum ersten mal. Weder im Studium noch später im Beruf habe ich das bisher gehört. M bedeutet Mega und ist klar in den entsprechenden Normen definiert. k bedeute 1000, K bedeutet 1024, M etspricht hier 1024*1024 völlig unabhängig ob pro Zeiteinheit oder nicht.

Nein, bei Uebertragunsraten wird das SI-System benutzt. So uebertraegt eine DSL 6Mbit/s Leitung genau 6 Mb (6 000 000 000 bit) und nicht 6 MiB. K bedeutet uebrigens Kelvin, du meinst wahrscheinlich Ki.

Es wäre Praktisch die suche unter eingabe von "gbps" auf diese Seite zu verlinken, und ne kleine Info miteinzubauen das des Gigabit per second heißt --Docheinen 19:02, 2. Mai 2006 (CEST)Beantworten


Falsche Schreibweise MBit/s (Ergänzung)

Mir ist aufgefallen, dass man diese falsche Schreibweise in Werbung und Medien wesentlich häufiger sieht und sich allgemein durchzusetzen scheint. Vielleicht aus Unwissen oder Ignoranz, vielleicht aber auch bloß, weil es ortographisch schöner aussieht!! Auf jeden Fall denke ich, dass es sinnvoll ist, darauf einzugehen. --w-sky 17:56, 27. Mai 2006

Einlassung von Blaubirke

Blaubirke hat da eine Änderung gemacht und nicht verstanden, was daran falsch ist. Dem Bit ist es wirklich egal, ob er im Lotto gewonnen hat und ob die Null eine Wahrscheinlichkeit hat, eine Eins zu sein. Nach seiner Definition ist eine Speicherstelle, die ich 128 mal beobachte, dabei 64 mal 1 und 64 mal 0 erhalte, ein Bit groß, während eine Speicherstelle, die 1 mal 1 und 127 mal 0 ist, 8 Bit groß ist. Da ich keine Lust mehr habe, mich mit irgendjemandem zu streiten und nur versehendlich vergessen habe, mich vorher abzumelden, soll bitte ein anderer das wieder richtig stellen. Danke RaiNa 18:53, 21. Jul 2006 (CEST)

Es ist schon richtig, dass es dem Bit egal ist was darin abgespeichert wird. Aber es ist dem Bit auch egal ob er für etwas überhaupt abgespeichert wird. Wenn aber von Informationsmenge (das ist doch das selbe wie Informationsgehalt oder nicht?) geredet wird, dann ist es auch schon entscheidend was gespeichert wird. Wenn die Bitfolge einfach dubliziert wird, dann steht da ja auch nicht mehr "Information" da (auch wenn sich die Speicherbelegung verdoppelt). Wenn ich etwas falsch verstanden habe, dann erklär mir doch bitte was. Nur zu behaupten etwas sei falsch ist nicht überzeugend und hilft nicht der Wahrheitsfindung.
Ich würde auch gerde wissen, was du mit "nur versehendlich vergessen habe, mich vorher abzumelden" gemeint hast. --Blauebirke ☕✍  19:39, 21. Jul 2006 (CEST)
Wenn das was du schreibst gemeint ist, (und das scheint wirklich so zu sein), dann sollte der Begriff Datenmenge wie auch weiter oben im Artikel verwendet werden. Habe entsprechend geändert. Unter Diskussion:Bit#Definitionsversuche war schon eine ähnliche Diskussion. --Blauebirke ☕✍  17:30, 24. Jul 2006 (CEST)

Wie viele Informationen sind 2000 BIT

Hallo, ich habe eine Frage. Kann jemand erklären, wie viele Informationen in 2000 BIT Stecken? Also wie viele Bilder oder wie viel Musik! Ich weiss, es ist schwer zu verstehen, aber ich habe gelesen, unser Gehirn nimmt 2000 BIT pro Sekunden an Informationen auf. Ich würde dies gerne veranschaulichen. Vielen Dank (nicht signierter Beitrag von Biologie2000 (Diskussion | Beiträge) )

Naja.. ne komische Frage, und keine Informationen was für Bilder oder Musik du vergleichen möchtest. Ich probiers trotzdem (alles ohne Gewähr!) Mit einem Bit kann man zwei (21) Zustände abbilden - ein Pixel schwarz oder weiss-, mit 2000 Bit kann man rund 1,1481602 Zustände (22000) abbilden - möglich sind also z.B. soviele verschiedene quadratische Schwarz-Weiss-Bilder mit einer Kantenlänge von 44 Pixeln (Wurzel aus 2000, abgerundet). Oder 12.185.208.703.151.069.117.391.635 verschiedene TrueColor-Bilder (24 Bit Farbtiefe) mit der Kantenlänge 9 Pixel. Also nicht besonders viel. An Musik.. naja.. sagen wir eine durchschnittliche MP3-Datei benötigt 3 MB, dass sind 25.165.824 Bit. 2000 Bit entsprechen also dem 1/12582-fachen einer durchschnittlichen MP3-Datei.
Wenn du mich fragst, sind 2000 Bit viel zu wenig angesetzt - guck dir nurmal an, wieviele Informationen schon allein das Auge aufnimmt, an Farben und Co - Wenn du auf deinen Bildschirm guckst, hast du z.B. 1024x768 Pixel und siehst ein TrueColor-Bild mit 24 Bit Farbtiefe, schon allein das sind 18874368 Bit. PAL-Filme haben eine Bildrate von 25 fps, um einen flüssigen Eindruck im Gehirn zu erzeugen - das Auge muss also schon um deinen Monitor flimmerfrei abbilden zu können, geschätzte 20fps leisten. Also für deinen Monitor schonmal rund 377.487.360 Bit/Sekunde.. das ist sechs Größenordnungen größer als 2000 Bit pro Sekunde! Und das stellt nur einen Bruchteil deiner Wahrnehmung dar (Hören, Fühlen, etcpp) und die Auflösung des Auges ist dazu auch noch viel besser als die des Monitors! Sicherlich ist die Rechnung nicht exakt und stark vereinfacht.. aber es reicht, um zu zeigen, dass die Größenordnung der 2000 Bit pro Sekunde nicht stimmen kann. Vielleicht hast du einen Einheitenpräfix vor dem Bit vergessen? T z.B.. oder E.. das würde dann schon mehr Sinn machen, denke ich. Oder der Zeitrahmen war anders.--Schmiddtchen 00:27, 27. Dez. 2006 (CET)Beantworten
Danke. Aber es sind BEWUSST 2000 Bit, also das, was du in deinem Bewusstsein verarbeitest. Über alle Sinnesorganze zusammen nimmt der Mensch vor den Filtern insgesamt 400 Milliarden Bits pro Sekunde auf!!!! -Biologie2000

Dass es bewusst 2000 bps sind, kann schon eher hinkommen. Das Gehirn funktioniert ja gänzlich anders als ein Rechner (viele wollen das nicht glauben; besonders Fremdsprachenlehrer in der Schule sind da fantastisch). Man sieht zum Beispiel, wenn man auf den Bildschirm guckt, keine Pixel, also diskrete Dateneinheiten, sondern man nimmt nur Informationen wahr, die als Farbflächen auf dem Bildschirm dargestellt werden. Und nicht nur dort. Der Mensch kann gleichzeitig an maximal sieben Dinge denken. Wieviel der einzelne Mensch schafft, ist ganz unterschiedlich. Aber meistens denkt man nicht an mehr als vier Dinge gleichzeitig. Das schneidet jetzt das Thema objektorientierte Programmierung an: Wenn ich an zwei Dinge denke, dann stelle ich mir zwei Objekte vor oder sehe sie oder höre sie oder nehme sie anders wahr. Zum Beispiel kann eins dieser Objekte meine Digitaluhr sein. Aber wenn ich die Zeit ablese, sehe ich meistens nicht bewusst die Uhr, sondern die Ziffern. Ich gucke mir zuerst die beiden Stundenziffern an und dann die beiden Minutenziffern. Es ist ziemlich schwer, da einen Informationsgehalt zu ermitteln. Wie viele Daten stecken im Rauschen meines Rechners, das mich die ganze Zeit umgibt? Wieviel Speicherplatz ein mit dem Auge wahrgenommenes Bild einnimmt, kann auch nicht so einfach per Anzahl der Rezeptoren mal Logarithmus dualis aus der Anzahl der unterscheidbaren Farben bestimmt werden, weil das Gehirn Daten überhaupt nicht speichert, sondern nur Informationen; und diese in einer völlig anderen Darstellungsform speichert als wir es von digitalen Speichermedien gewohnt sind. Deshalb halte ich die Schätzung mit den 2000 bps auch für sehr vage. Cocyhok 17:30, 6. Jan. 2007 (CET)Beantworten

KBit und MBit

*ein KBit besteht bei Speichern aus 1024 Bit
*ein MBit besteht bei Speichern aus 1042 KBit
 Die KByte und MByte sind bei Speichern jeweils 8 mal mehr als KBit und MBit (siehe Byte).

Richtig oder falsch ??? ;)--83.243.112.138 22:18, 26. Dez. 2006 (CET)Beantworten

Falsch. 1 Byte == 8 Bit. 1 Kbit zu 1024 Bit entspricht somit 128 KByte. Damit ist die Zahl nicht achtmal größer, sondern nur ein Achtel so groß. Das selbe gilt für MBit: 1 Mbit zu 1024 KBit entsprechen 128 MByte. --Schmiddtchen 23:44, 26. Dez. 2006 (CET)Beantworten
Richtig 1 Byte == 8 Bit.
Du brauchst 8 Bit um ein Byte darzustellen, also die 8 fache Menge in Bit für das Byte ;)...
--83.243.112.138 01:05, 27. Dez. 2006 (CET)Beantworten
Neenee, Keule. Die Formulierung von dir schreit geradezu danach, missverstanden zu werden.. da du "8 fache Menge" ohne Bezug lässt, sieht das aus, als wären 8 Bit das Achtfache von einem Byte - das wäre so als wären 100 Cent das Hundertfache von einem Euro. Entweder du stellst dich blöd, verarschst uns, oder verwechselst Zahlen mit Werten. --Schmiddtchen 01:11, 27. Dez. 2006 (CET)Beantworten

Die KByte und MByte = (sind) bei Speichern jeweils 8 mal mehr als KBit und MBit (siehe Byte). ;)--83.243.112.138 02:22, 27. Dez. 2006 (CET)Beantworten

zum Thema gleich vs. entspricht: Deine Lösung mit genau ist optimal :) Bitte benutze zukünftig bei offesichtlichen Meinungsverschiedeneheiten die Diskussionsseite. Das gilt natürlich auch für Korinth.
zum Thema oben: ich mag mich nur ungern wiederholen, und ein Bild möchte ich auch nicht nicht malen. Die Relation, die du bisher verwendest, ist ganz einfach falsch rum: die KByte Zahl ist nur ein Achtel so groß, und nicht Achtmal so groß wie die entsprechende Zahl an Bits. Wenn das immernoch nicht das ist, was du meinst, musst du entweder weiter ausholen, dein Problem - bzw. was du erreichen möchtest- genauer schildern oder einfach nochmal drüber schlafen, in der Hoffnung, dass du mich morgen früh verstehst. Ein Spezifikum für Speicher gibts übrigens auch nicht. --Schmiddtchen 02:35, 27. Dez. 2006 (CET)Beantworten

Unwichtige Bits

Den Satz "Allgemein gilt in der digitalen Welt, dass es keine „unwichtigen“ Bits gibt." verstehe ich - trotz aller Beispiele darunter - nicht.

Wenn ich Daten soviel komprimiere, dass ich keine Redundanz mehr darin habe, dann habe ich vielleicht keine unwichtigen Bits mehr, aber sobald ich Daten uebertrage und Codes verwende, die kleinere Uebertragungsfehler korrigieren, dann gibt es schon unwichtige Bits.

Ausserdem werden in der "digitalen Welt" (Was ist das eigentlich?) viele Programme bewusst oder unbewusst so geschrieben, dass viel mehr Daten irgendwo im Speicher abgelegt, ohne dass sie benoetigt werden, weil die Programme nicht darauf optimiert wurden. Ich wuerde sagen, dass Daten, die irgendwohin gespeichert werden und dann wieder geloescht werden ohne einmal gelesen zu werden schon irgendwie "unwichtige Bits" sind.

Aber vielleicht verstehe ich einfach nur nicht, worauf der Autor hier hinaus wollte. -- 130.83.2.27 15:25, 16. Jul. 2007 (CEST)Beantworten

Die Maschine, die Anlage oder der Prozess ist das Maß aller Dinge. Das mit der "digitalen Welt" ist ein "modernes" Märchen. Logik gab es auch schon, als der Computer noch nicht entwickelt war. Die kleinen Helferlein sind so nützlich wie ein Hammer. Hier wird vieles übertrieben.--Kölscher Pitter 23:11, 4. Aug. 2007 (CEST)Beantworten

komplexe Wahrheitstabellen

So programmiert keiner mit der SPS. Komplexe Wahrheitstasbellen braucht man ganz, ganz selten. Die Realität ist viel einfacher.--Kölscher Pitter 23:01, 4. Aug. 2007 (CEST)Beantworten

Speicher

Wenn ich richtig gelesen habe, dann kommt in diesem Artikel der Begriff Speicher nicht vor. Und das wundert mich sehr.--Kölscher Pitter 10:04, 8. Aug. 2007 (CEST)Beantworten