[ zurück ] [ Übersicht ] [ Thesen ] [ weiter ]
Wahrscheinlichkeitsberechnungen waren schon immer ein beliebtes Stilmittel von Evolutionsgegnern, um mit angeblich mathematischer Gewissheit zeigen zu können, dass irgendwelche Ereignisse angeblich nicht ohne Eingriff einer planenden Intelligenz erfolgt sein können. Jeder, der sich auch nur ein wenig mit Werken von Kreationisten oder Evolutionsgegnern beschäftigt hat, wird zahlreiche Beispiele kennen. Sehr 'beliebt' sind Rechnereien wie ich sie an anderer Stelle dargestellt und kritisiert habe.
So gut wie alle Überlegungen, die sich im Bereich der Evolutionskritik mit Wahrscheinlichkeitsberechnungen befassen, machen einen grundlegenden Fehler. Sie unterscheiden nicht zwischen den beiden Typen von Systemen, die ich als 'Ein-Generationen-Systeme' bzw. 'Viele-Generationen-Systeme' bezeichnen möchte. Diese Einteilung ist zwar sehr grob, reicht aber aus, um die grundsätzliche Problematik aufzuzeigen.
Für die Betrachtung dieser Systeme ist nur die Zeit zwischen deren 'Geburt' und 'Tod' relevant. Alle Strukturen, die sie enthalten, sind in dieser Zeit entstanden. Beispiele sind Sterne, Autos, Computer-Programme, Kunstwerke und so weiter. Dasselbe gilt auch für deren Komplexität: sie muss komplett in der 'Lebenszeit' des Systems entstehen. Weisen diese Systeme eine hinreichende Komplexität auf, liegt der Schluss nahe, dass sie geschaffen sein müssen: es ist schlicht und ergreifend unter den üblichen Rahmenbedingungen nicht vorstellbar, dass sie 'durch Zufall' enstanden sind. Beispiele wären Kunstwerke, Schriftstücke etc. Es ist nicht unmöglich, dass eine durch einen Zufallsgenerator erzeugte Folge von ASCII-Zeichen einen interessanten Roman ergibt. Ich würde aber jede Wette halten, dass ein so erzeugtes Buch keinen Sinn ergibt.
Unabdingbar für die Betrachtung dieser Systeme ist, dass sie in einer Generationen-Folge stehen. Diese Generationen sind aus der jeweils vorigen Generation hervorgegangen. Dabei fand eine Informations-Übertragung von der 'Eltern'-Generation statt. Für diese Systeme spielt daher auch die Zeit vor ihrer 'Geburt' eine wesentliche Rolle. Als wichtigstes Beispiel sind hier Lebewesen zu nennen. In Ansätzen könnte man auch bestimmte Typen vom Computerprogrammen wie Computer-Viren, die ihren Code verändern oder ganz allgemein neuronale Netze nennen. Im Gegensatz zu Lebewesen entstehen hier aber keine materiellen Systeme. Zudem ist dieser Vergleich problematisch, weil Computer ja von (menschlichen) Intelligenzen geschaffen wurden. Ob naturalistische Mechanismen ausreichen, die Entstehung derartiger System zu erklären, ist in dem Sinn eine offene Frage, dass es derzeit trotz intensiver Forschung noch keine allgemein anerkannten Modelle gibt, wie das funktionieren könnte. Die Aufgabe der ID-Anhänger ist, wie schon erwähnt, aber zu zeigen, dass das niemals der Fall sein wird.
Dawkins (1986) hat diese beiden Formen der Entstehung von Systemen, allerdings speziell auf Selektion bezogen, sehr anschaulich dargestellt ('single-step-selection' vs. 'cumulative selection'). Ich möchte eher die Systeme als solche betrachten und den konkreten Mechanismus nicht in den Vordergrund stellen. Daher verwende ich die Bezeichnungen 'Ein-Generationen-Systeme' vs. 'Viele-Generationen-Systeme'. Dawkins Betrachtungen stellen sozusagen einen Spezialfall meiner Überlegungen dar.
Auf jeden Fall ist aber zu beachten, dass Berechnungen, die sich nur auf eine 'Generation' beziehen, für derartige Systeme irrelevant sind. Evolution ist ein Vorgang, der nur über viele 'Generation' hin erfolgen kann. Wichtiger ist noch, dass es sich um ein Wechselspiel aus Zufall und Notwendigkeit handelt. Die üblichen Beispiele betrachten nur den Zufallsaspekt. Die Notwendigkeit, die durch die Selektion über die Generationenfolge richtend eingreift, wird überhaupt nicht beachtet. Durch die Reduktion des gesamten Vorgangs auf eine Generation wird die jeweilige durchaus vorhandene Wahrscheinlichkeit für jeden Zwischenschritt sozusagen in einen einzigen Schritt gepackt und fälschlicherweise angenommen, dass das die Gesamtwahrscheinlichkeit für den Übergang von der Ausgangs- in die Endstruktur sei. [1]
Um diesen Fehlschluss zu verdeutlichen, reicht schon die von Dawkins geschilderte Sortierung von Geröll am Strand durch Wellengang. Man berechne hier nur die Wahrscheinlichkeit, dass diese Sortierung durch eine Welle erfolgt im Vergleich zu der, dass viele Wellen über diese Steine spülen.
Meine Kernthese ist nun, dass sich alle Argumente der ID-'Theoretiker', die sich mit der Feststellung von Komplexität befassen, auf Systeme vom Typ a beziehen. Diese Argumentation wird dann auf Systeme vom Typ b ausgedehnt, ohne hinreichend zu begründen, dass diese Argumente auch hier gelten.
Zur Veranschaulichung einige Beispiele für Systeme vom Typ a aus einschlägigen Arbeiten von ID-Anhängern. Der 'Klassiker' ist die Taschenuhr, die Paley im Sand findet. Sehr beliebt bei Evolutionsgegnern waren (sind?) Berechnungen, wie wahrscheinlich es ist, dass ein Makromolekül einer ganz bestimmten Sequenz von Monomeren in einem Schritt entstehen kann. Ein Autor stellte auch die Frage, ob durch Windabrieb die Präsidentenköpfe im Mount Rushmore oder die Steinfiguren der Osterinseln entstanden sein können. Der Astrophysiker Hoyle hat ein ähnliches Beispiel konstruiert: die Entstehung von Leben aus toter Materie sei in etwa so wahrscheinlich, wie die Entstehung eines Jumbo-Jets wenn ein Tornado durch einen Schrotthaufen zieht. Daher wird diese Form von Wahrscheinlichkeitsbetrachtung auch als 'tornado in a junkyard-argument' bezeichnet. [2] Es gibt diesen Ansatz von Berechnungen allerdings auch in wesentlich elaborierterer Form, bei der dann der grundsätzliche Fehler dieser Betrachtungsweise nicht mehr erkennbar ist (s.u.).
Allen diesen Beispielen ist gemein, dass die betrachteten Systeme zum Typ a gehören. Ab einer bestimmten Komplexität kann man hier Zufallsprozesse ausschließen. Selbst wenn wir nicht wissen, welche Intelligenzen beispielsweise die Steinfiguren der Osterinseln schufen, können wir doch mit Sicherheit davon ausgehen, dass sie nicht durch 'Zufallsprozesse' wie Windabrieb entstanden sein können. Dasselbe gilt auch für irgendwelche Wandinschriften oder Höhlenbilder aus der Steinzeit.
Gegen das Argument 'Wir wissen aus Erfahrung, dass Menschen solche Figuren machen. Der Schluss von derartigen Systemen auf beispielsweise Lebewesen ist nicht gerechtfertigt, weil wir nicht wissen, ob die geschaffen sind.' wenden die ID-Anhänger gerne das sogenannte SETI-Argument (benannt nach dem Programm 'Search for Extra-Terrestrian Intelligence', das intelligente Lebensformen im All aufspüren soll) ein. Wenn wir Signale aus dem Weltall empfangen würden, die beispielsweise aus einer Folge aller Primzahlen von im Zahlenraum von 1 bis 100 bestehen, käme niemand auf die Idee, dass die einfach nur 'zufällig' entstanden sein könnte. Auch wenn wir nicht wissen, was für ein Typ Wesen diese Signale absendet, wäre dieser Schluss zwingend. Das ist korrekt, aber bei den Funksignalen es handelt sich hier wieder um Systeme vom Typ a, die hinreichend komplex sind, um eine 'zufällige' Entstehung äußerst unwahrscheinlich zu machen.
Interessant ist in diesem Zusammenhang, wie Dembski (2002) in seinem Buch 'No Free Lunch' die Wahrscheinlichkeit für die naturalistische Entstehung einer Bakteriengeißel zu berechnen versucht. Diese Berechung durch Dembski ist, soweit mir bekannt, der einzige Versuch, durch konkrete Berechnungen die Notwendigkeit von Design zu belegen. Er fasst die Entstehung der Geißel als kombinatorisches Problem auf, wie bestimmte Proteine sich zu einer Geißel zusammenlagern. Er macht hier aus einem Phänomen, das in einem System vom Typ b abläuft, formal ein System vom Typ a. Niemand bestreitet, dass die Wahrscheinlichkeit für die 'zufällige' Enstehung einer solchen Struktur praktisch Null ist.
Aber niemand hat behauptet, dass eine Bakteriengeißel auf diese Weise entsteht. Diese Berechung wird von Kritikern (z.B. Wein (2002) oder van Till (2002)) berechtigterweise als irrelevant bezeichnet. Dembski hätte aufzeigen müssen, wie wahrscheinlich die naturalistische Entstehung der Bakteriengeißel nach allen überhaupt möglichen naturalistischen Szenarien ist. Selbstverständlich ist das gar nicht möglich, solange nicht alle diese Wege überhaupt vorgeschlagen wurden und widerlegte werden konnten. Aber Dembski berechnet nicht einmal die Wahrscheinlichkeiten der vorgeschlagenen Wege, sondern er berechnet die Wahrscheinlichkeit des Zusammenlagerns der jeweiligen Proteine zu einer Geißel als kombinatorisches Problem. Das bedeutet, dass er anstelle eines Entwicklungsweges von Systemen vom Typ b ein System vom Typ a berechnet. Daher ist diese gesamte Berechnung schlicht und ergreifend ohne Bedeutung. Sehr ausführlich hat das van Till begründet. Dem vernichtenden Fazit von Wein ist nichts hinzuzufügen. Alle anderen derartigen Berechnungen sind noch weniger überzeugend.
Dass man sich die Mühe sparen kann, zu berechnen, wie wahrscheinlich es ist, dass sich die Proteine der Bakteriengeißel so falten und zusammenlagern können, dass eine Bakterien-Geißel entsteht, sieht man leicht daran, dass derartige Strukturen von den Bakterien gebildet werden können. Diese Wahrscheinlichkeiten sind daher schlicht und ergreifend praktisch 1.0. Die Frage, die korrekterweise gestellt werden müsste, ist, wie ein Bakterium mit einer DNA, die keine Geißel codieren kann, sich über viele Generationen hinweg zu einem Organismus mit einer DNA entwickeln kann, welche die Proteine codiert, mit denen diese Organismen eine Geißel ausbilden können. Zu berechnen wären hier die jeweiligen Wahrscheinlichkeiten für die Entstehung der Zwischenstadien. Dazu muss zunächst genau geklärt werden, wie die Bakteriengeißel überhaupt mechanismisch entsteht (Welche Gene codieren welche Proteine? Wie lagern sich diese zusammen, um eine Geißel zu bilden? Gibt es denkbare Zwischenformen? Haben diese Proteine möglicherweise noch andere Funktionen? Gibt es Anzeichen für Funktionswechsel?). Erst wenn diese Fragen geklärt sind, kann sinnvoll darüber diskutiert werden, ob dieses System ohne Designer entstanden sein kann. Die Forschung kann nur mit den üblichen Verfahren erfolgen und wird sich kaum konkret unterscheiden, ob man nun versucht, die 'Spuren des Schöpfers' zu lesen oder 'nur' verstehen will, wie sich bestimmte Moleküle anordnen.
[ zurück ] [ Übersicht ] [ Thesen ] [ weiter ]
1 Dawkins beschreibt diese Überlegungen sehr anschaulich:
We have seen that living things are too improbable and too beautifully 'designed' to have come into existence by chance. How, then, did they come into existence? The answer, Darwin's answer, is by gradual, step-by-step transformations from simple beginnings, from primordial entities sufficiently simple to have come into existence by chance. Each successive change in the gradual evolutionary process was simple enough, relative to its predecessor, to have arisen by chance. But the whole sequence of cumulative steps constitutes anything but a chance process, when you consider the complexity of the final end-product relative to the original starting point. The cumulative process is directed by nonrandom survival. The purpose of this chapter is to demonstrate the power of this cumulative selection as a fundamentally nonrandom process. (Dawkins 1986: 43)
[ ... ]
The essential difference between single-step selection and cumulative selection is this. In single-step selection the entities selected or sorted, pebbles or whatever they are, are sorted once and for all. In cumulative selection, an the other hand, they 'reproduce'; or in some other way the results of one sieving process are fed into a subsequent sieving, which is fed into ... , and so on. The entities are subjected to selection of sorting over many 'generations' in succession. The end-product of one generation of selection is the starting point for the next generation of selection, and so on for many generations. (Dawkins 1986: 45)
Dawkins beschreibt diesen Vorgang recht anschaulich auch an einem nicht-biologischen Beispiel. Sandkörnern an einem Strand können durch ständigen Wellengang in parallelen Zonen gleicher Größe sortiert werden. Als Einschritt-Mechanismus (als Ergebnis der 'Arbeit' einer einzigen Welle) wäre das extrem unwahrscheinlich, erst durch eine stetige Abfolge von Wellen wird dieser Sortierungs-Prozess ermöglicht. Entscheidend ist nur, dass sich ein selektierender Vorgang wiederholt, wobei der jeweils vorige End-Zustand als Anfangs-Zustand in den nächsten Schritt eingespeist wird.
2Korthof hat sich die Mühe gemacht, den Ursprung und die Verwendung dieses Beispiels herauszuarbeiten. Der 'locus classicus' ist nach Korthof
"A junkyard contains all the bits and pieces of a Boeing-747, dismembered and in disarray. A whirlwind happens to blow through the yard. What is the chance that after its passage a fully assembled 747, ready to fly, will be found standing there?" [aus Hoyle, F. (1983) 'The Intelligent Universe': 19, T.W.]
The actual statement was originally in a radio lecture in 1982. It may have been a wild guess, but "A collegue of mine worked out that a yeast cell and a 777 airplane have the same number of parts, the same level of complexity" [Elliot Meyerowitz, zitiert nach Gail Vines (2000) New Scientist (12):36-39, T.W.] Korthof, G. (2002) '"A memorable misunderstanding". Fred Hoyle in the Evolution/Creation literature' URL: http://home.planet.nl/~gkorthof/kortho46a.htm, heruntergeladen am 11.05.2003
Die Verbreitung des 'Arguments' in der kreationistischen Literatur führt Korthof auf Denton (1985) zurück.
[ zurück ] [ Übersicht ] [ Thesen ] [ weiter ]
an Thomas Waschke |
Erstellt:
Stand: |
15. Mai 2003 |