Spezifizierte Komplexität

Konzept
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 2. März 2006 um 06:28 Uhr durch Nost (Diskussion | Beiträge) (Umstrukturiert). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Diese Seite wurde zur Löschung vorgeschlagen.

Falls du Autor des Artikels bist, lies dir bitte durch, was ein Löschantrag bedeutet, und entferne diesen Hinweis nicht.

Zu den Löschkandidaten

Die Diskussion über diesen Antrag findet auf der Löschkandidatenseite statt.
Hier der konkrete Grund, warum dieser Artikel nicht den Qualitätsanforderungen entsprechen soll:

Begründung:Eine Privatthese, die sich nie durchgesetzt hat. --((ó)) Käffchen?!? 12:34, 1. Mär 2006 (CET)



Der Begriff der Spezifizierten Komplexität wurde ursprünglich von dem Chemiker Leslie Orgel geprägt, der damit 1973 das Merkmal bezeichnete, das belebte von unbelebter Materie unterscheidet:

"Kurz gesagt zeichnen sich lebende Organismen durch ihre 'spezifizierte Komplexität' aus. Kristalle dienen gewöhnlich als die Prototypen einfacher wohlspezifizierter Strukturen, weil sie aus einer sehr großen Zahl identischer Moleküle bestehen, die auf eine gleichmäßige Art zusammengepackt sind. Granitbrocken oder zufällige Mischungen von Polymeren sind Beispiele von Strukturen, die komplex, aber nicht spezifiziert sind. Die Kristalle können nicht als lebendig gelten, weil ihnen Komplexität fehlt; die Polymergemische können nicht als lebendig gelten, weil ihnen Spezifizität fehlt." (The Origins of Life, S.189)

Heute wird der Begriff in der Regel im Sinne des Kreationisten und Mathematikers William A. Dembski, verwendet. Dieser hat den Begriff - ausgehend von dem von Michael J. Behe eingeführten Begriff der nichtreduzierbaren Komplexität - mit mathematischen Mitteln definiert und verwendet ihn im Rahmen seiner Kritik an der Evolutionstheorie als Kriterium, um Produkte ungerichteter Naturvorgänge von denen intelligenter Akteure unterscheiden zu können. Dembskis Argumentation zufolge kann spezifizierte Komplexität nur durch eine Intelligenz erzeugt werden. Dembskis Theorien gelten als pseudowissenschaftlich und in sich widersprüchlich (siehe unten).

Definition und Kriterien für spezifizierte Komplexität

Dembski selbst gibt mehrere Versionen der Begriffsdefinition, unter anderem folgende:

"Wenn etwas wirklich spezifiziert komplex ist, so ist es unerklärbar im Rahmen aller existierenden materiellen Mechanismen, ob bekannt oder unbekannt. In der Tat bedeutet die Bezeichnung eines Objektes als spezifiziert komplex, daß die Spezifizierung, der es entspricht, ein Ereignis darstellt, welches im Rahmen aller denkbaren materiellen Mechanismen äußerst unwahrscheinlich* ist." (Dembski, William A. (2002). The Logical Underpinnings of Intelligent Design. Debating Design: From Darwin to DNA. Dembski, W. A. and Ruse, M., Eds. New York, Cambridge University Press. p. 12) Web-Link

Um spezifiziert komplex zu sein, muss die Wahrscheinlichkeit der zufälligen Entstehung eines Objektes aus seinen Einzelbestandteilen unterhalb von 10-150 liegen. Diese Grenze wird von Dembski als "Universelle Wahrscheinlichkeitsschranke" bezeichnet. Dieser niedriger Wert ist nach Dembski Meinung ausreichend um sicherzustellen, dass auch im gesamten (von ihm mit dem sichtbaren Universum gleichgesetzten) Universum die Wahrscheinlichkeit niedrig genug ist, um eine Möglichkeit einer zufälligen Enstehung praktisch auszuschliessen. Weiterhin muss das gegebene Objekt ein unabhängig von ihm gegebenes und loslösbares Muster besitzen.

Bereits hier setzt die Kritik an Dembskis Argumentation ein, da in die Berechnung der "Universelle Wahrscheinlichkeitsschranke" bereits mehrere Voraussetzungen eingehen, die aus naturwissenschaftlicher Sicht nicht haltbar, oder zumindest aber sehr fragwürdig sind. So verwendet er etwa zur Berechnung der "Universelle Wahrscheinlichkeitsschranke" die Anzahl aller Atome im sichtbaren Universum, obwohl gemäss der heutigen Standard-Kosmologie das sichtbare Universum nur einen kleinen Teil des Gesamt-Universums ausmacht, welches möglicherweise sogar ein unendliches Volumengehalt hat. Auch interpretiert er die Planckzeit als kleinste möglich Zeitschritt, obwohl sie eigentlich nur die minimale Zeitspanne entspricht, unterhalb der unsere gegenwärtigen physikalischen Gesetze ihre Gültigkeit verlieren.


*unterhalb der "Universellen Wahrscheinlichkeitsschranke"

Beispiel

Der Buchstabe A ist spezifiziert (entspricht einem unabhängig gegebenen Muster), aber nicht komplex. Eine lange Sequenz zufälliger Buchstaben ist komplex (ein komplizierter Satz Instruktionen ist erforderlich, um sie zu generieren), aber nicht spezifiziert (entspricht keinem unabhängig gegebenen Muster). Ein Sonnet Shakespeares ist demnach im Sinne Dembskis spezifiziert komplex.

Bedingungen der Erzeugbarkeit spezifisch komplexer Objekte und irreduzible Komplexität

Dembski die Frage auf, ob die Evolution spezifizierte Komplexität erzeugen könne:

"Der Punkt ist, ob die Natur (aufgefaßt als geschlossenes System blinder, ungebrochen natürlicher Kausalität) spezifizierte Komplexität im Sinne der Erschaffung, wo vorher keine war, erzeugen kann." (Dembski, William A. (2003). Gauging Intelligent Design's Success. p. 5) Web-Link

Der Zufall kann Komplexität im Sinne der Aneinanderreihung von Zufallsbuchstaben erzeugen, aber die Wahrscheinlichkeit der Entstehung von spezifizierte Komplexität durch Zufall sei definitionsgemäss so gering, dass sie unter die von Dembski angenommene universelle Wahrscheinlichkeitsschranke falle. Intelligent Design Vertreter meinen, dass Naturgesetze zwar spezifiziert sind, aber keine Komplexität sondern nur gleichmässige Strukturen (Bsp.: Salz-Kristall) erzeugen können.

Naturwissenschaftler verneinen im Allgemeinen diese Argumentation. Neben der Fragwürdigkeit der universellen Wahrscheinblichkeitsschranke wird darauf hingewiesen, dass z.B. in der Biologie nirgends behauptet wird, dass die beobachteten biologischen Strukturen durch reinen Zufall enstanden seien. Vielmehr werde eine Kombination aus zufälligen Mutationen und natürlicher Auslese angenommen, welche auch in der Lage sei die sogenannten spezifizierten komplexen Strukturen zu erzeugen. Die Behauptung, dass Komplexität sich nicht durch Naturgesetze bilden könne, sei nicht begründbar. Im Gegenteil zeige die Nichtgleichgewichtsthermodynamik dass unter bestimmten Bedingungen, d.h. weitab vom thermischen Gleichgewicht, solche Strukturen durchaus entstehen können. Tatsächlich gebe es eine Vielzahl von Experimenten (z.B. Ising-Gläser, neuronale Netzwerke) oder auch alltägliche Beobachtungen (Wetterphänomene, Wirbel- und Turbulenzbildung in Flüssigkeiten) bei welcher komplexe Strukturbildung beobachtet werden können.

Da jedoch die "nichtzufällige" gesetzesmässige Entstehung hochkomplexer Strukturen Zwischenschritte erfordert, versucht Dembski diese Möglichkeit dadurch auszuschliessen, indem er auf das Konzept der irreduziblen Komplexität, u.a. vertreten von M. Behe, zurückgreift. Irreduzible Komplexität bezeichnet solche komplexen Systeme, welche nicht weiter in einfachere funktionelle Teilsysteme zerlegbar sind. Solche Systeme müssten demnach also in einem einzigen Schritt erzeugt werden. Spezifisch komplexe Objekte welche dazu noch irreduzibel wären, könnten also nicht durch graduelle Evolution, sondern nur in einem spontanen zufälligen Aufeinandertreffen ihrer Einzelbestandteile erzeugt werden.

Dem wird von naturwissenschaftlicher Seite entgegnet, dass der Nachweis, dass ein gegebenes Objekt spezifisch komplex und irreduzibel sei, nicht erbracht werden kann. Dass für eine gegebenes komplexes Objekt momentan keine Zerlegeung in einfachere Teilsysteme bekannt sei, sei kein Beweis, dass es keine solche Zerlegung gebe. Tatsächlich gebe es Beispiele für von Dembski als irreduzibel und spezifisch komplex angesehenen Objekte, welche sich inzwischen als zerlegbar erwiesen haben. Nicht nur wird von Dembski keine Methode angegeben, wie speziell die Irreduzibilität nachgewiesen werden könne, es ist sogar fragwürdig ob so ein Nachweis prinzipiell möglich sei. Ein Durchprobieren alle potentiellen Möglichkeiten (Brute-Force) um die Zerlegbarkeit zu widerlegen sei gerade für die infragekommenden hochkomplexen Objekte unmöglich. Schliesslich sollen ja gerade solche Systeme betrachtet werden, die komplex genug sind, so dass selbst evolutionäres Trial and Error nicht alle Möglichkeiten durchprobieren kann, geschweige den ein menschlicher Forscher. Analytisches Vorgehen hingegen beruhe in der Regel auf einer analytischen Beschreibung des Objektes und einer Zerlegung eines Problems in Teilprobleme, womit sich die Frage ergäbe, ob man nicht bereits die Zerlegbarkeit eines Systemes gezeigt hätte, wenn man eine adequate analytische Beschreibung gefunden haette. Tatsaechlich wurde z.B. von Gregory J. Chaitin in der Algorithmischen Informationstheorie gezeigt, dass die Irreduzierbarkeit von Zahlenfolgen ab einer bestimmten Komplexität prinzipiell nicht nachweisbar ist.

Bei negativer Beantwortung der von Dembski zu Begin gestellten Frage ergibt sich die Aussage "Spezifizierte Komplexität kann nicht natürlich erzeugt werden, also kann die Natur keine spezifizierte Komplexität erzeugen". Da dies aber bestenfalls für irreduzible spezifizierte Komplexität der Fall sein kann und bisher keine Methode bekannt ist Irreduzibilität nachzuweisen, kann man sich dass dann einfach dadurch erklären, dass irreduzible spezifizierte Komplexität in der Natur einfach nicht vorkommt.