Entropie
Die Entropie ist ein Maß für die Unordnung eines Systems. Sie wurde ursprünglich als phänomenologisches Maß auf dem Gebiet der Thermodynamik in der Physik bzw. Chemie eingeführt.
Insbesondere lässt sich mit Hilfe des Entropiebegriffs der 2. Hauptsatz der Thermodynamik besonders einfach formulieren. Später wurde die Entropie per Analogieschluss von Claude Shannon in die Informationstheorie übernommen. Inzwischen gibt es jedoch mit der theoretischen Thermodynamik bzw. statistischen Mechanik auch eine gut überprüfte physikalische Theorie, die einen direkten und exakt quantifizierten Zusammenhang zwischen der informationstheoretischen und physikalischen Entropie herstellt.
Ein System mit Entropie 0 ist perfekt geordnet. Ein physikalisches System, das diesem Zustand nahe kommt, ist das Bose-Einstein-Kondensat, da sich alle Teilchen im selben Zustand befinden. Ein informationstechnisches System mit Entropie 0 ist ein Speicher, der nur 0en beinhaltet. Sobald ein System diesen Zustand der "totalen Gleichschaltung" verlässt, steigt die Entropie auf einen von 0 verschiedenen Wert. Sie kann einen vom System abhängigen Maximalwert jedoch nicht überschreiten, der sich bei einer Festplatte beispielsweise durch die Speicherkapazität, bei einem physikalischen System durch die enthaltenen Teilchen ergibt. Üblicherweise ist das Erreichen des maximalen Entropiewertes mit "perfekter Unordnung" gleichzusetzen, Physiker sprechen auch vom thermischen Gleichgewicht.
Der Maxwellscher Dämon ist ein Gedankenexperiment zum zweiten Hauptsatz der Thermodynamik. Er verbindet Entropie nicht nur mit Energie, sondern auch mit dem Begriff Information.
Für eine genaue Definition in den jeweiligen Fachbereichen siehe: