Indeterminismus

Auffassung, dass nicht alle Ereignisse durch Vorbedingungen eindeutig festgelegt sind
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 25. September 2016 um 12:41 Uhr durch Pibach (Diskussion | Beiträge) (Objektiver Zufall: Typo). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Indeterminismus ist die Auffassung, dass nicht alle Ereignisse durch Vorbedingungen eindeutig festgelegt sind, es also bestimmte Ereignisse gibt, die nicht eindeutig durch Ursachen determiniert, sondern indeterminiert (= unbestimmt) sind. Der Indeterminismus wird klassisch als Gegensatz zum Determinismus angesehen.

Objektiver Zufall

Grundlage des Indeterminismus bildet die Existenz des objektiven Zufalls. Objektiver Zufall bezeichnet Zufallsereignisses, die (im Gegensatz zum subjektiven Zufall) nicht reduzierbar sind, also nicht von (verborgenen) Ursachen abhängen, sondern fundamental unbestimmt und rational nicht erklärbar sind.[1][2] Die mathematischen Grundlagen dieser Irreduzibilität wurden von John von Neumann gelegt.[3]

Der österreichische Wissenschaftler Philipp Frank schlug schon im Jahre 1932 folgende Erklärung vor[4]:

„Ein Zufall schlechthin, also gewissermaßen ein absoluter Zufall wäre dann ein Ereignis, das in bezug auf alle Kausalgesetze ein Zufall ist, das also nirgends als Glied einer Kette auftritt“

Das Problem besteht allerdings darin, zu entscheiden ob für ein Ereignis die Ursache lediglich unbekannt ist, oder ob es objektiv ohne Ursache eintrat.

Viele Ereignisse der Quantenmechanik gelten insbesondere nach der Kopenhagener Deutung als fundamental unbestimmt und unreduzierbar, also objektiv zufällig und nicht auf verborgene Variablen zurückführbar. Andere Deutungen der Quantenmechanik (De-Broglie-Bohm-Theorie, Ensemble-Interpretation, Viele-Welten-Interpretation) lassen dagegen (nichtlokale) verborgene Variablen zu und beinhalten keinen objektiven Zufall.

Nach der modernen Warscheinlichkeitstheorie setzt der Begriff der objektiven Zufälligkeit nicht zwingend die Annahme eines "metaphysischen Indeterminismus" voraus, sondern "ist durch das erklärbar, was in der Physik 'deterministische Instabilität' genannt wird". Singularitäten bzw. instabile Punkte in den Berechnungsmodellen auch innerhalb der deterministischen klassischen Mechanik bewirken, dass beliebig kleine Unterschiede im Anfangszustand nach hinreichend langer Zeit zu maximal großer Abweichungen der Ergebnisse führen. Das Ergebnis wird von "unmessbar kleinen Fluktuationen bestimmt und ist daher unmöglich vorhersagbar". Zusammen mit prinzipiellen Grenzen exakter Messbarkeit impliziert dies "die Existenz objektiv indeterminierter Prozesse auch im Größenbereich der Makrophysik".[5]

Zufallszahlenfolgen werden unterschieden in berechenbare Zufallszahlen (Pseudozufallszahlen) und "echte", also objektiv zufällige Zufallsfolgen, für die kein Algorithmus existieren kann, der die Zahlenfolge exakt wiedergeben könnte. Aus theoretischen Überlegungen kann – unter begründeten Annahmen – gezeigt werden, dass Quantenereignisse echte Zufallsfolgen produzieren.[6][7] Einige physikalische Prozesse wie das Athmospärenrauschen, CCD-Sensorrauschen, metastabile Zeitgeber oder Spannungsschwankungen an einer Z-Diode gelten als hinreichend echt zufällig, wie auch das Würfeln oder die Ziehung von Lottozahlen, in der Hinsicht, dass sie von echtem Zufall nicht unterscheidbar sind.

Mathematisch gestaltet sich die Unterscheidung von Pseudozufallszahlen gegenüber echten Zufallszahlen, also der Beweis echter Zufälligkeit, tatsächlich als schwierig. Niemand kann wirklich ausschließen, dass nicht doch ein Algorithmus existiert, der eine beobachtete Zahlenfolge reproduzieren könnte. Dennoch gibt es stochastische Testverfahren (Shannon Entropie, Book Stack, Borel Normalität, Random Walk), die die Güte von Pseudozufallszahlen messen können. Pseudozufallszahlen, wie sie von typischen Programmen wie Mathematica generiert werden, sind damit von Quantenzufallszahlenfolgen mit gewisser Treffsicherheit unterscheidbar[8] – was auf die beschränkte Güte der Pseudozufallszahlenfolge hinweist.

Indeterminismus und Freier Wille

Indeterminismus spielte in der Debatte um den freien Willen des Menschen eine wesentliche Rolle. Dies entsprang der klassischen Vorstellung, nach der Determinismus und Indeterminismus Gegensätze bildeten. Nach Auffassung des Inkompatibilismus ist ein Determinismus der keine indeterminierten Ereignisse zulässt nicht mit dem freien Willen des Menschen vereinbar (gemäß Kompatibilismus besteht dieser Widerspruch nicht bzw. sind Determinismus und Indeterminismus nicht unbedingt Gegensätze).

Nach Robert Kane, einer der Hauptvertreter des Libertarismus, bedeute Indeterminismus nicht schon Zufall, sondern sei konsistent mit einer nichtdeterministischen Form von Verursachung, bei der das Ereignis verursacht sei, aber nicht unvermeidlich.[9] Patrick Suppes vertrat eine "probabilistische Theorie der Kausalität"[10], John Dupré und Nancy Cartwright eine Gesetzesskepsis und prinzipielle Unvollständigkeit von Modellen[11][12] – und sahen Indeterminismus als zentrales Prinzip der Natur.

Mit diesen libertaristischen Standpunkten und dem kompatibilistischen Standpunkt, der unter Einbeziehung prinzipieller Grenzen der Bestimmtheit einen "schwachen" Determinismus annimmt, verliert sich der zwischen Determinismus und Indeterminismus postulierte Gegensatz: Eine genaue und exakte Prognostizierbarkeit, die man meistens mit dem Determinismus verbindet, ist beim schwachen Determinismus prinzipiell nicht gegeben. Daher ist im (schwachen) Determinismus die Zukunft offen.[13] Elmar Sauter fasst dazu zusammen:

„Ein Hauptargument des Libertarianismus gegen den Determinismus war die fehlende offene Zukunft, und damit gäbe es mit dem Determinismus keine Wahlmöglichkeiten. Es bedurfte einer wissenschaftlichen Erkenntnis, dass man für Erklärungszwecke auch einen (schwachen) Determinismus mit offener Zukunft haben kann. Daher ist dieses Hauptargument hinfällig.“[13]

Indeterminismus versus Nichtdeterminismus

In der Theoretischen Informatik unterscheidet man zwischen deterministischen und nichtdeterministischen Algorithmen. Der Nichtdeterminismus basiert gegenüber dem Indeterminismus nicht auf dem Konzept des Zufalls sondern einer Art Gleichzeitigkeit (Parallelität): dem Erreichen eines Ziels auf eine nicht-zielgerichtete Weise.

Einzelnachweise

  1. Andrei Khrennikov: Probability and Randomness: Quantum versus Classical. World Scientific, 2016, S. 199.
  2. Anton Zeilinger: Einsteins Schleier: die neue Welt der Quantenphysik. C.H.Beck, 2003, S. 44, 46, 216.
  3. John von Neumann: Mathematische Grundlagen der Quantenmechanik (1932). Springer-Verlag, 2013 (google.de).
  4. Frank, P.: Das Kausalgesetz und seine Grenzen. Springer, 1932 (nightacademy.net).
  5. Gerhard Schurz: Wahrscheinlichkeit. De Gruyter, 2015, S. 58 (google.de).
  6. Cristian S. Calude, Karl Svozil: Quantum randomness and value indefiniteness. Advanced Science Letters, 2008, S. 165–168.
  7. Alastair Abbott: Value Indefiniteness, Randomness and Unpredictability in Quantum Foundations. Doktorarbeit an der University of Auckland, 2015 (archives-ouvertes.fr).
  8. Cristian S. Calude, Michael J. Dinneen, Monica Dumitrescu, Karl Svozil: Experimental Evidence of Quantum Randomness Incomputability. Phys. Rev, 2010 (arxiv.org [PDF]).
  9. Elmar Sauter: Willensfreiheit und deterministisches Chaos. KIT Scientific Publishing, 2013, S. 116 (google.dePDF).
  10. Suppes, Patrick: A Probabilistic Theory of Causality. North-Holland Publishing Company, 1970.
  11. Dupré, John: The Disorder of Things. Metaphysical Foundations of the Disunity of Science. Harvard University Press, 1993.
  12. Cartwright, Nancy: How the Laws of Physics Lie. Clarendon, 1983.
  13. a b Elmar Sauter: Willensfreiheit und deterministisches Chaos. KIT Scientific Publishing, 2013, S. 144.

Siehe auch