Die Entropie (zu altgr. entrépein, "umkehren") (Wörtlich heißt es etwa "Innenwendung")[1] ist ein Maß für die Unordnung oder Zufälligkeit eines Systems.
Die Entropie wurde ursprünglich als phänomenologisches Maß auf dem Gebiet der Thermodynamik in der Physik bzw. Chemie eingeführt. Insbesondere lässt sich mit Hilfe des Entropiebegriffs der 2. Hauptsatz der Thermodynamik besonders einfach formulieren. Später wurde die Entropie per Analogieschluss von Claude Shannon in die Informationstheorie übernommen. Inzwischen gibt es jedoch mit der theoretischen Thermodynamik bzw. statistischen Mechanik auch eine gut überprüfte physikalische Theorie, die einen direkten und exakt quantifizierten Zusammenhang zwischen der informationstheoretischen und der physikalischen Entropie herstellt.
Ein System mit Entropie 0 ist perfekt geordnet. Ein physikalisches System, das diesem Zustand nahe kommt, ist das Bose-Einstein-Kondensat, da sich alle Teilchen im selben Zustand befinden. Ein informationstechnisches System mit Entropie 0 ist ein Speicher, der nur Nullen oder nur Einsen enthält. Sobald ein System diesen Zustand der "totalen Gleichschaltung" verlässt, steigt die Entropie auf einen von 0 verschiedenen Wert. Sie kann einen vom System abhängigen Maximalwert jedoch nicht überschreiten, der sich bei einer Festplatte beispielsweise durch die Speicherkapazität, bei einem physikalischen System durch die enthaltenen Teilchen ergibt. Üblicherweise ist das Erreichen des maximalen Entropiewertes mit "perfekter Unordnung" gleichzusetzen; Physiker sprechen auch vom thermischen Gleichgewicht.
Der Maxwellsche Dämon ist ein Gedankenexperiment zum zweiten Hauptsatz der Thermodynamik. Er verbindet Entropie nicht nur mit Energie, sondern auch mit dem Begriff Information.
Bei kryptographischen Schlüsseln spricht man von geringer Entropie, wenn ein bestimmter Teil des Schlüssels nicht zufällig ist, sondern aus anderen Teilen hergeleitet werden kann respektive allgemein bekannt ist.
In der Informationstheorie bezeichnet Entropie den Grad der Unwissenheit über den Inhalt einer Nachricht.
Der Entropiesatz beweist die Unmöglichkeit eines Perpetuum Mobile 2. Art.
Das Gegenteil von Entropie ist die Negentropie, also im physikalischen Sinne Ordnung oder im Sinne der Informationstheorie Information. Hier sollte man beachten, ob man unter der Negentropie eine Zahl mit einem negativen Vorzeichen versteht, oder ob man sie als Kehrwert der Entropie
Ordnung = 1 / Entropie
definiert. Die Existenz negativer Entropie wird von den meisten Physikern und Mathematikern abgelehnt, weil es keine perfektere Ordnung als einen Einkristall mit einer Entropie von 0 gibt.
Für eine genaue Definition in den jeweiligen Fachbereichen siehe:
Siehe auch: Verdampfungsentropie