Allgemeine Probleme von Wissenschaft, Pseudowissenschaft und Aberglaube

Vorbemerkung:

Herr Shermer hat mir freundlicherweise gestattet, die folgenden Passagen aus seinem Buch Why People Believe Weird Things. Pseudoscience, Superstition, and Other Confusions of our Time [ 1 ] auf meiner Site zu veröffentlichen und zu übertragen. Herr Shermer ist Mitglied in einer Organisation amerikanischer Skeptiker, deren Site durchaus einen Besuch wert ist (www.skeptic.com). Sollte die englische Sprache ein Hindernis für Sie darstellen, wäre das Zentrum für Wissenschaft und kritisches Denken GWUP e.V. (www.gwup.org), das ähnliche Ziele verfolgt, möglicherweise für Sie interessant.

!!! Hinweis !!!

Selbstverständlich habe ich mich bemüht, die Passagen so gut wie möglich in die deutsche Sprache zu übertragen. Da ich kein ausgebildeter Übersetzer bin, sind mir vermutlich Fehler unterlaufen. Sollten Sie mit meiner Übertragung nicht einverstanden sein, bitte ich um eine E-Mail, ich werde dann schnellstmöglich eine Korrektur einarbeiten.

Einige Passagen habe ich als Aufhänger für weiter führende Gedanken verwendet. Für diese bin ich allein verantwortlich, sie sind mit Shermer nicht abgestimmt. Shermer's Schwerpunkt unterscheidet sich vom meinigen. Er hat vor allem Menschen im Auge, die irgendwelchen Obskurantismen oder Aberglauben anhängen, mir geht es in den Anmerkungen eher um die Diskussion mit den 'scientific creationism', der davon ausgeht, mit den Methoden der (Natur)Wissenschaften zeigen zu können, dass eine Evolution nicht stattgefunden haben konnte.

Übersicht

Allgemeine Einführung
Hume's Wundertest

I. Probleme des naturwissenschaftlichen Denkens

 1. Die Theorie beeinflusst das Denken
 2. Der Beobachter verändert das Beobachtete
 3. Laboratoriumsartefakte

II. Probleme pseudowissenschaftlichen Denkens

 4. Anekdoten begründen keine Wissenschaft
 5. Wissenschaftsjargon garantiert nicht Wissenschaftlichkeit
 6. Kühne Behauptungen sind keine Wahrheitsbeweise
 7. Außenseitertum bedeutet noch nicht, dass eine Position stimmt
 8. Wer ist beweispflichtig?
 9. Gerüchte sind keine Tatsachen
10. Ungeklärt heißt nicht unerklärbar
11. Irrtümer werden rationalisiert
12. Korrelation ist nicht Kausalität
13. Die Zufälligkeit gleichzeitiger Ereignisse
14. Repräsentanz

III. Logische Probleme beim Denken

15. Emotionsgeladene Begriffe und falsche Analogien
16. Ad Ignorantiam
17. Ad Hominem und Tu Quoque
18. Vorschnelle Verallgemeinerung
19. Übermäßiges Vertrauen auf Autoritäten
20 Entweder-Oder
21. Zirkelschlüsse
22. Reductio ad Absurdum und die Schiefe Bahn ('Dammbruch'-Argumente)

IV. Psychologische Probleme beim Denken

23. Unzureichende Anstrengung und das Bedürfnis nach Sicherheit, Kontrolle und Einfachheit
24. Unzureichende Problemlösungs-Strategien
25. Immunisierung der Weltanschauung, oder das Planck-Problem

Allgemeine Einführung

Shermer hat in seinem Buch [ 1 ], dessen Titel auf Deutsch in etwa 'Warum Menschen verrückte Dinge glauben' lauten könnte, eine sehr eingehende und in meinen Augen überzeugende Analyse dessen gegeben, was Wissenschaft und Pseudowissenschaft unterscheidet. Ihm geht es vor allem darum, vom Standpunkt des Skeptikers aus Haltungen zu widerlegen, auf die 'naive' Menschen immer wieder 'hereinfallen'. Im folgenden werde ich Teile der 25 'Fallacies' aus Teil 1 ('Science and Skepticism') Kapitel 3 (How Things Go Wrong. Twenty-Five Fallacies that Lead Us to Believe Weird Things') im Original wiedergeben, übertragen und teilweise kommentieren. Ich kann jedem Leser nur dringendst empfehlen, sich das Buch zu beschaffen (sorry, aus CopyRight-Gründen darf ich den kompletten Text nicht auf meiner Site veröffentlichen, übliche Internet-Buchhandlungen, wie beispielsweise J. F. Lehmann, können das Buch innerhalb weniger Wochen liefern). Eine Lektüre des gesamten Bandes lohnt sich auf jeden Fall. Shermer zeigt darin mustergültig auf, warum viele Diskussionen mit Kreationisten oder Neo-Nazis so schwierig sind und welche Wurzeln bestimmte Denkungsarten haben.

[ Übersicht ]

Hume's Wundertest

Shermer weist zunächst auf Hume [ 2 , S. 491] hin, der schon vor langer Zeit darauf hingewiesen hat, wie man mit Thesen umgehen sollte, die 'wunderbar' sind:

Even more important is Hume's foolproof, when-all-else-fails analysis of miraculous claims. For when one is confronted by a true believer whose apparently supernatural or paranormal claim has no immediately apparent natural explanation, Hume provides an argument that he thought so important that he placed his own words in quotes and called them a maxim:

"The plain consequence is (and it is a general maxim worthy of our attention),

"That no testimony is sufficient to establish a miracle, unless the testimony be of such a kind, that its falsehood would be more miraculous than the 'fact' which it endeavors to establish.""

[ Übertragung ] [ Anmerkungen ]

Demnach ist kein Zeugnis von einem Wunder glaubwürdig, wenn dieses Zeugnis nicht so gesichert ist, dass dessen Falschheit ein noch größeres Wunder wäre als das behauptete Wunder. Wenn also beispielsweise Menschen, die über jeden Zweifel erhaben sind, eine Messung möglichst mehrfach mit Geräten durchführen, die aufgrund anerkannter Theorien konstruiert wurden, und sich dabei ein Befund ergibt, der mit dem derzeitigen Wissen nicht zu vereinbaren ist, dann sollte man sich ernsthaft daran machen, das derzeit gültige Paradigma zu überdenken. In diesem Fall wäre es wunderbarer, dass die Messung inkorrekt erfolgte als dass das untersuchte Phänomen vorgetäuscht wurde.

I. Probleme des naturwissenschaftlichen Denkens

Shermer geht zunächst auf Probleme ein, die auch das naturwissenschaftliche Denken betreffen.

Viele Menschen, auch Naturwissenschaftler, gehen naiverweise davon aus, dass es 'da draußen' eine von uns unabhängig existierende Welt gibt, die wir mit unseren naturwissenschaftlichen Methoden so erforschen, dass wir unmittelbar wahre Erkenntnisse über selbige erlangten. Das ist aber nicht der Fall. Shermer hat sich in seinen Thesen nicht besonders ausführlich mit den Gedankengängen beschäftigt, die ich hier darlegen werde. Er ist vor allem Skeptiker, während es mir darauf ankommt, die Position des Agnostikers zu verdeutlichen. Mein Ziel ist, darzulegen, was wir wissen können und was nicht. Naturwissenschaft und ihre Methoden bietet keine Sicherheit, dass wir zu wahren Erkenntnissen gelangen. Aber mit allen anderen Methoden ist es nicht einmal möglich, dieses Niveau zu erreichen.

Diese Überlegungen sind vor allem bei der Diskussion mit Evolutionsgegnern eminent wichtig. Es macht keinen Sinn, sichere Erkenntnis zu postulieren, wenn es nicht gelingen kann, diese Sicherheit auch begründen zu können. Auf diese spezielle Problematik bin ich in einem anderen Artikel bereits näher eingegangen.

[ Übersicht ] [ Anmerkungen ]

1. Die Theorie beeinflusst das Denken

1. Theory Influences Observations

The theory in part constructs the reality. Reality exists independent of the observer, of course, but our perceptions of reality are influenced by the theories framing our examination of it. Thus, philosophers call science theory laden.

[ Übertragung ] [ Übersicht ]

Die Aussage, dass es eine von uns unabhängige 'Wirk'lichkeit geben soll, ist selbstverständlich philosophisch sehr problematisch. Es ist keineswegs unstrittig, dass es tatsächlich eine von uns unabhängig existierende 'Wirk'lichkeit gibt. Es gibt keine mir bekannte Möglichkeit, den Solipsismus ('die Welt existiert nur in meinem Bewusstsein') zu widerlegen. Das bedeutet beispielsweise, dass es Sie gar nicht gibt, weil die ganze Welt nur in meinem Bewusstsein existiert. Sie können mir natürlich eine Ohrfeige verpassen und sagen: 'Du Trottel, fass mal an Deine Backe, dann merkst Du, wie real ich bin!'. Diese Methode wurde schon im alten Griechenland gegen die ersten Solispisten angewendet, von denen die Geschichte der Philosophie berichtet, allerdings, wie Sie leicht einsehen werden, ohne Erfolg: Sie existieren zwar nur in meinem Bewusstsein, das hindert Sie aber nicht, innerhalb desselben meiner Wange eine Schwellung zu verpassen.

Aber auch eine als real existierend angenommene Wirklichkeit löst dieses Problem nicht. Betrachten Sie einfach folgendes Weltbild:

Die Welt wurde letzten Donnerstag erschaffen. Mit Gesteinen voller Fossilien und radioaktiven Isotopen, Computern mit vollen Festplatten, Häusern mit Regalen voller Zeitungen, Menschen mit Gedächtnissen und so weiter. (Sie können sich das, wenn Sie wollen, beliebig weiter ausmalen).

Die modernen Naturwissenschaften gehen aufgrund experimenteller Daten von einem Alter des Universums im Bereich von Jahrmilliarden aus, es gibt Kreationisten, die aufgrund einer bestimmten Interpretation der Bibel von ein paar Jahrtausenden ausgehen, aber wenn der oben skizzierte 'Last-Thursdayismus' eine korrekte Beschreibung der Entstehung des Universums wäre, dann würde das niemand herausfinden. Die Naturwissenschaftler würden Messungen an Gesteinsproben durchführen, die so beschaffen sind, dass sie ein Alter im Jahrmilliardenbereich vortäuschten. Die Kreationisten würden mit Bibeln arbeiten, die ein paar Tage alt sind und die sie mit Gedächtnissen mit Erlebnissen mit ihrem Gott interpretieren, die auch nicht älter sind. In diesem Weltbild wird zwar von einer unabhängig von uns existierenden Wirklichkeit ausgegangen, es gibt aber keinerlei Möglichkeit, 'wahre' Erkenntnisse über sie zu erlangen. Es gibt keine Möglichkeit, zu erkennen, dass die Erde nur ein paar Tage alt ist. Und selbst wenn jemand diese zwar radikale, aber in diesem Fall vollkommen korrekte Erkenntnis verkünden würde, hätte er keine Möglichkeit, sie zu belegen. Aber es ist auch nicht möglich, ihm das Gegenteil zu beweisen.

Die Annahme einer von uns unabhängig existierenden Welt, die mit uns und unseren Geräten in reproduzierbarer Weise wechselwirkt hat sich aber im Lauf der Wissenschaftsgeschichte so gut bewährt, dass man, bis zum Beweis des Gegenteils, davon ausgehen kann, dass das der Fall ist. Solange die Geräte, die wir aufgrund dieser Annahme bauen, funktionieren, spielt es praktisch weiter keine Rolle, ob unsere Theorien über die Welt 'wahr' sind oder 'nur' Technik ermöglichen.

Shermer weist darauf hin, dass, selbst wenn wir davon ausgehen, dass es eine von uns unabhängige Wirklichkeit gibt, diese noch lange nicht 'objektiv' erforscht werden kann. Spätestens seit den Entdeckungen der Quantenphysik ist deutlich geworden, dass der Vorgang der Messung die Realität verändert. Es ist nicht so, dass wir einfach die Welt betrachten und dann unsere Erkenntnisse gewinnen können. Einstein hat das sehr treffend ausgedrückt: "Man weiß nicht, was man sieht, sondern man sieht, was man weiß."

2. Der Beobachter verändert das Beobachtete

2. The Observer Changes the Observed

[ ... ] the act of studying an event can change it. Social scientists often encounter this phenomenon. Anthropologists know that when they study a tribe, the behavior of the members may be altered by the fact they are being observed by an outsider. Subjects in a psychology experiment may alter their behavior if they know what experimental hypotheses are being tested. This is why psychologists use blind and double-blind controls. Lack of such controls is often found in tests of paranormal powers and is one of the classic ways that thinking goes wrong in the pseudosciences. Science tries to minimize and acknowledge the effects of the observation on the behavior of the observed; pseudoscience does not.

[ Übertragung ] [ Übersicht ]

Damit soll darauf hingewiesen werden, dass es keine absolut neutrale Beobachtung gibt. Das gilt nicht nur für die Sozialwissenschaften, sondern auch in der Physik. Die Tatsache einer Messung beeinflusst prinzipiell das Forschungsobjekt. Man kann zwar versuchen, diese Effekte möglichst gering zu halten, ganz ausschließen kann man sie aber nicht.

Shermer weist darauf hin, dass vor allem in den Pseudowissenschaften diese Problematik nicht berücksichtigt wird. Das führt natürlich dazu, dass Resultate falsch interpretiert werden.

3. Laboratoriumsartefakte

3. Equipment Constructs Results

Eddington [ 3 ] illustrated the problem with this clever analogy:

Let us suppose that an ichthyologist is exploring the life of the ocean. He casts a net into the water and brings up a fishy assortment. Surveying his catch, he proceeds in the usual manner of a scientist to systematize what it reveals. He arrives at two generalizations:

(1) No sea-creature is less than two Inches long.

(2) All sea-creatures have gills.

In applying this analogy, the catch stands for the body of knowledge which constitutes physical science, and the net for the sensory and intellectual equipment which we use in obtaining it. The casting of the net corresponds to observations.

An onlooker may object that the first generalization is wrong. "There are plenty of sea-creatures under two inches long, only your net is not adapted to catch them." The ichthyologist dismisses this objection contemptuously. "Anything uncatchable by my net is ipso facto outside the scope of ichthyological knowledge, and is not part of the kingdom of fishes which has been defined as the theme of ichthyological knowledge. In short, what my net can't catch isn't fish." (1958, p. 16)

[ Übertragung ] [ Übersicht ]

Aus diesem Beispiel geht deutlich hervor, dass man nicht direkt aus den Ergebnissen von Forschungen auf die Eigenschaften des Seienden schließen kann. Wir konstruieren uns daraus ein Weltbild. In wie weit dieses mit der 'Wirk'lichkeit übereinstimmt ist, so weit ich sehe, nicht erkennbar. Es ist nur zulässig, unter kritischer Würdigung der zur Verfügung stehenden Methoden zu entscheiden, über welchen Bereich des Seins man gültige Aussagen machen kann.

Probleme pseudowissenschaftlichen Denkens

In diesem Abschnitt befasst sich Sherme mit spezifischen Denkfallen, die vor allem das pseudo-wissenschaftliche Denken betreffen. Einige dieser Punkte spielen auch in der Diskussion mit Kreationisten eine gewichtige Rolle. Ich werde das im Zusammenhang mit den jeweiligen Thesen näher erläutern.

4. Anekdoten begründen keine Wissenschaft

4. Anecdotes Do Not Make a Science

Without corroborative evidence from other sources, or physical proof of some sort, ten anecdotes are no better than one, and a hundred anecdotes are no better than ten. Anecdotes are told by fallible human storytellers.

[ ... ] Stories about how your Aunt Mary's cancer was cured by watching Marx brothers movies or taking a liver extract from castrated chickens are meaningless. The cancer might have gone into remission an its own, which some cancers do; or it might have been misdiagnosed; or, or, or .... What we need are controlled experiments, not anecdotes. We need 100 subjects with cancer, all properly diagnosed and matched. Then we need 25 of the subjects to watch Marx brothers movies, 25 to watch Alfred Hitchcock movies, 25 to watch the news, and 25 to watch nothing. Then we need to deduct the average rate of remission for this type of cancer and then analyze the data for statistically significant differences between the groups. If there are statistically significant differences, we better get confirmation from other scientists who have conducted their own experiments separate from ours before we hold a press conference to announce the cure for cancer.

[ Übertragung ] [ Übersicht ]

Hierzu möchte ich lediglich anmerken, dass Anekdoten, vor allem, wenn sie zahlreicher sind, durchaus als Anstoss für eine sorgfältige Prüfung dienen sollten. Aber auch wenn sich in einem Fall herausstellen sollte, dass hinter diesen Anekdoten doch ein wahrer Kern steckt, bedeutet das noch lange nicht, dass immer Feuer sein muss, wo Rauch ist (nach einem klugen Spruch tut es auch ein Haufen frischer Mist).

5. Wissenschaftsjargon garantiert nicht Wissenschaftlichkeit

5. Scientific Language Does Not Make a Science

Dressing up a belief system in the trappings of science by using scientistic language and jargon, as in "creation-science," means nothing without evidence, experimental testing, and corroboration. Because science has such a powerful mystique in our society, those who wish to gain respectability but do not have evidence try to do an end run around the missing evidence by looking and sounding "scientific."

[ Übertragung ] [ Übersicht ]

Eine ähnliche Strategie verfolgen Gläubige verschiedener Richtungen, wenn sie Begriffe der modernen Naturwissenschaften in ihre Offenbarungstexte hineininterpretieren. Anschließend werden dann moderne Ergebnisse präsentiert und der Eindruck erweckt, als stünden diese schon in der jeweiligen Schrift. So wird beispielsweise auf einer Site das Wort 'toledot' in der Genesis als 'Stammbaum' interpretiert und daraus abgeleitet, dass das, was man heute unter 'Stammbaum' versteht, in diesem Text schon offenbart wurde. Die Ergebnisse der Naturwissenschaften stellten dann eine Art 'Gottesbeweis' dar.

Besonders bei Muslimen ist diese Haltung verbreitet. Angeblich stehen im Koran naturwissenschaftliche Erkenntnisse, die zur damaligen Zeit gar nicht bekannt waren. Wenn man sich derartige Behauptungen genauer betrachtet, sieht man leicht, dass dort gar keine Aussagen stehen, sondern irgendwelche Umschreibungen, die man so deuten kann, dass sie wie moderne wissenschaftliche Erkenntnisse aussehen.

6. Kühne Behauptungen sind keine Wahrheitsbeweise

6. Bold Statements Do Not Make Claims True

Something is probably pseudoscientific if enormous claims are made for its power and veracity but supportive evidence is scarce as hen's teeth. L. Ron Hubbard, for example, opens his Dianetics: The Modern Science of Mental Health, with this statement: "The creation of Dianetics is a milestone for man comparable to his discovery of fire and superior to his invention of the wheel and arch" (in Gardner 1952, p. 263 [ 4 ]). [ ... ] Maybe fifty years of physics will be proved wrong by one experiment, but don't throw out your furnace until that experiment has been replicated. The moral is that the more extraordinary the claim, the more extraordinarily well-tested the evidence must be.

Die Quintessenz dieser Aussagen scheint mir zu sein, dass Thesen, die besonders revolutionär sind, auch besonders kritisch getestet werden müssen.

[ Übertragung ] [ Übersicht ]

7. Außenseitertum bedeutet noch nicht, dass eine Position stimmt

7. Heresy does not Equal Correctness

German philosopher Arthur Schopenhauer, which is quoted often by those on the margins: "All truth passes through three stages. First, it is ridiculed. Second, it is violently opposed. Third, it is accepted as selfevident." But "all truth" does not pass through these stages. Lots of true ideas are accepted without ridicule or opposition, violent or otherwise. [ ... ] The Schopenhauer quote is just a rationalization, a fancy way for those who are ridiculed or violently opposed to say, "See, I must be right." Not so.

History is replete with tales of the lone scientist working in spite of his peers and flying in the face of the doctrines of his or her own field of study. Most of them turned out to be wrong and we do not remember their names. [ ... ] The scientific community cannot be expected to test every fantastic claim that comes along, especially when so many are logically inconsistent. If you want to do science, you have to learn to play the game of science. This involves getting to know the scientists in your field, exchanging data and ideas with colleagues informally, and formally presenting results in conference papers, peer-reviewed journals, books, and the like.

[ Übertragung ] [ Übersicht ]

8. Wer ist beweispflichtig?

8. Burden of Proof

The person making the extraordinary claim has the burden of proving to the experts and to the community at large that his or her belief has more validity than the one almost everyone else accepts. You have to lobby for your opinion to be heard. Then You have to marshal experts on your side so you can convince the majority to support your claim over the one that they have always supported. Finally, when You are in the majority, the burden of proof switches to the outsider who wants to challenge you with his or her unusual claim. [ ... ] In other words, it is not enough to have evidence. You must convince others of the validity of your evidence. And when you are an outsider this is the price you pay, regardless of whether you are right or wrong.

[ Übertragung ] [ Übersicht ]

 

9. Gerüchte sind keine Tatsachen

9. Rumors Do Not Equal Reality

Rumors begin with "I read somewhere that . . . " or "I heard from someone that . . . . " Before long the rumor becomes reality, as "I know that . . ." passes from person to person. Rumors may be true, of course, but usually they are not.

[ Übertragung ] [ Übersicht ]

10. Ungeklärt heißt nicht unerklärbar

10. Unexplained Is Not Inexplicable

Many people are overconfident enough to think that if they cannot explain something, it must be inexplicable and therefore a true mystery of the paranormal. [ ... ] There are many genuine unsolved mysteries in the universe and it is okay to say, "We do not yet know but someday perhaps we will." The problem is that most of us find it more comforting to have certainty, even if it is premature, than to live with unsolved or unexplained mysteries.

[ Übertragung ] [ Übersicht ]

11. Irrtümer werden rationalisiert

11. Failures Are Rationalized

In science, the value of negative findings - failures - cannot be overemphasized. Usually they are not wanted, and often they are not published. But most of the time failures are how we get closer to truth. Honest scientists will readily admit their errors, but all scientists are kept in line by the fact that their fellow scientists will publicize any attempt to fudge. Not pseudoscientists. They ignore or rationalize failures, especially when exposed.

[ Übertragung ] [ Übersicht ]

12. Korrelation ist nicht Kausalität

12. After-the-Fact Reasoning

Also known as "post hoc, ergo propter hoc," literally "after this, therefore because of this." At its basest level, it is a form of superstition. [ ... ] As Hume taught us, the fact that two events follow each other in sequence does not mean they are connected causally. Correlation does not mean causation.

[ Übertragung ] [ Übersicht ]

13. Die Zufälligkeit gleichzeitiger Ereignisse

13. Coincidence

In the paranormal world, coincidences are often seen as deeply significant. "Synchronicity" is invoked, as if some mysterious force were at work behind the scenes. But I see synchronicity as nothing more than a type of contingency - a conjuncture of two or more events without apparent design. When the connection is made in a manner that seems impossible according to our intuition of the laws of probability, we have a tendency to think something mysterious is at work.

But most people have a very poor understanding of the laws of probability. [ ... ] As the behavioral psychologist B. E Skinner proved in the laboratory the human mind seeks relationships between events and often finds them even when they are not present. Slot-machines are based an Skinnerian principles of intermittent reinforcement. The dumb human, like the dumb rat, only needs an occasional payoff to keep pulling the handle. The mind will do the rest.

[ Übertragung ] [ Übersicht ]

14. Repräsentanz

14. Representativeness

As Aristotle said, "The sum of the coincidences equals certainty." We forget most of the insignificant coincidences and remember the meaningful ones. Our tendency to remember hits and ignore misses is the bread and butter of the psychics, prophets, and soothsayers who make hundreds of predictions each January 1. First they increase the probability of a hit by predicting mostly generalized sure bets like "There will be a major earthquake in southern California" or "I see trouble for the Royal Family." Then, next January they publish their hits and ignore the misses, and hope no one bothers to keep track.

We must always remember the larger context in which a seemingly unusual event occurs, and we must always analyze unusual events for their representativeness of their class of phenomena.

[ Übertragung ] [ Übersicht ]

Logische Probleme beim Denken

15. Emotionsgeladene Begriffe und falsche Analogien

15. Emotive Words and False Analogies

Emotive words are used to provoke emotion and sometimes to obscure rationality. They can be positive emotive words - motherhood, America, integrity, honesty. Or they can be negative - rape, cancer, evil, communist. Likewise, metaphors and analogies can cloud thinking with emotion or steer us onto a side path. [ ... ] They are merely tools of rhetoric.

[ Übertragung ] [ Übersicht ]

 

16. Ad Ignorantiam

16. Ad Ignorantiam

This is an appeal to ignorance or lack of knowledge and is related to the burden of proof and unexplained is not inexplicable fallacies, where someone argues that if you cannot disprove a claim it must be true. For example, if you cannot prove that there isn't any psychic power, then there must be. [ ... ] In science, belief should come from positive evidence in support of a claim, not lack of evidence for or against a claim.

[ Übertragung ] [ Übersicht ]

17. Ad Hominem und Tu Quoque

17. Ad Hominem and Tu Quoque

Literally "to the man" and "you also," these fallacies redirect the focus from thinking about the idea to thinking about the person holding the idea. The goal of an ad hominem attack is to discredit the claimant in hopes that it will discredit the claim. Calling someone an atheist, a communist, a child abuser, or a neo-Nazi does not in any way disprove that person's statement. It might be helpful to know whether someone is of a particular religion or holds a particular ideology, in case this has in some way biased the research, but refuting claims must be done directly, not indirectly.

[ Übertragung ] [ Übersicht ]

18. Vorschnelle Verallgemeinerung

18. Hasty Generalization

In logic, the hasty generalization is a form of improper induction. In life, it is called prejudice. In either case, conclusions are drawn before the facts warrant it. Perhaps because our brains evolved to be constantly on the lookout for connections between events and causes, this fallacy is one of the most common of all. [ ... ] In science, we must carefully gather as much information as possible before announcing our conclusions.

[ Übertragung ] [ Übersicht ]

19. Übermäßiges Vertrauen auf Autoritäten

19. Overreliance on Authorities

We tend to rely heavily an authorities in our culture, especially if the authority is considered to be highly intelligent. [ ... ] Magician James Rand, is fond of lampooning authorities with Ph.D.s - once they are granted the degree, he says, they find it almost impossible to say two things: "I don't know" and "I was wrong." Authorities, by virtue of their expertise in a field, may have a better chance of being right in that field, but correctness is certainly not guaranteed, and their expertise does not necessarily qualify them to draw conclusions in other areas.

In other words, who is making the claim makes a difference. [ ... ] While expertise is useful for separating the wheat from the chaff, it is dangerous in that we might either (1) accept a wrong idea just because it was supported by someone we respect (false positive) or (2) reject a right idea just because it was supported by someone we disrespect (false negative). How do you avoid such errors? Examine the evidence.

[ Übertragung ] [ Übersicht ]

 

20 Entweder-Oder

20. Either-Or

Also known as the fallacy of negation or the false dilemma, this is the tendency to dichotomize the world so that if you discredit one position, the observer is forced to accept the other. [ ... ] If your theory is indeed superior, it must explain both the "normal" data explained by the old theory and the "anomalous" data not explained by the old theory. A new theory needs evidence in favor of it, not just against the opposition.

[ Übertragung ] [ Übersicht ]

21. Zirkelschlüsse

21. Circular Reasoning

Also known as the fallacy of redundancy, begging the question, or tautology, this occurs when the conclusion or claim is merely a restatement of one of the premises. [ ... ] Obviously, a tautological operational definition can still be useful. Yet, difficult as it is, we must try to construct operational definitions that can be tested, falsified, and refuted.

[ Übertragung ] [ Übersicht ]

22. Reductio ad Absurdum und die Schiefe Bahn ('Dammbruch'-Argumente)s

22. Reductio ad Absurdum and the Slippery Slope

Reductio ad absurdum is the refutation of an argument by carrying the argument to its logical end and so reducing it to an absurd conclusion. Surely, if an argument's consequences are absurd, it must be false. This is not necessarily so, though sometimes pushing an argument to its limits is a useful exercise in critical thinking; often this is a way to discover whether a claim has validity, especially if an experiment testing the actual reduction can be run. Similarly, the slippery slope fallacy involves constructing a scenario in which one thing leads ultimately to an end so extreme that the first step should never be taken.

[ Übertragung ] [ Übersicht ]

Psychologische Probleme beim Denken

23. Unzureichende Anstrengung und das Bedürfnis nach Sicherheit, Kontrolle und Einfachheit

23. Effort Inadequacies and the Need for Certainty, Control, and Simplicity

Most of us, most of the time, want certainty, want to control our environment, and want nice, neat, simple explanations. All this may have some evolutionary basis, but in a multifarious society with complex problems, these characteristics can radically oversimplify reality and interfere with critical thinking and problem solving. [ ... ]

Scientific and critical thinking does not come naturally. It takes training, experience, and effort, as Alfred Mander explained in his Logic for the Millions: "Thinking is skilled work. It is not true that we are naturally endowed with the ability to think clearly and logically-without learning how, or without practicing. People with untrained minds should no more expect to think clearly and logically than people who have never learned and never practiced can expect to find themselves good carpenters, golfers, bridge players, or pianists" (1947, p. vii [ 5 ]). We must always work to suppress our need to be absolutely certain and in total control and our tendency to seek the simple and effortless solution to a problem. Now and then the solutions may be simple, but usually they are not.

[ Übertragung ] [ Übersicht ]

24. Unzureichende Problemlösungs-Strategien

24. Problem-Solving Inadequacies

All critical and scientific thinking is, in a fashion, problem solving. There are numerous psychological disruptions that cause inadequacies in problem solving. Psychologist Barry Singer has demonstrated that when people are given the task of selecting the right answer to a problem after being told whether particular guesses are right or wrong, they:

A. immediately form a hypothesis and look only for examples to confirm it.

B. Do not seek evidence to disprove the hypothesis.

C. Are very slow to change the hypothesis even when it is obviously wrong.

D. If the information is too complex, adopt overly-simple hypotheses or strategies for solutions.

E. If there is no solution, if the problem is a trick and "right" and "wrong" is given at random, form hypotheses about coincidental relationships they observed. Causality is always found. (Singer and Abell 1981, p. 18 [ 6 ])

If this is the case with humans in general, then we all must make the effort to overcome these inadequacies in solving the problems of science and of life.

[ Übertragung ] [ Übersicht ]

25. Immunisierung der Weltanschauung, oder das Planck-Problem

25. Ideological Immunity, or the Planck Problem

In day-to-day life, as in science, we all resist fundamental paradigm change. Social scientist Jay Stuart Snelson calls this resistance an ideological immune system: "educated, intelligent, and successful adults rarely change their most fundamental presuppositions" (1993, p. 54 [ 7 ]). According to Snelson, the more knowledge individuals have accumulated, and the more well-founded their theories have become (and remember, we all tend to look for and remember confirmatory evidence, not counterevidence), the greater the confidence in their ideologies. The consequence of this, however, is that we build up an "Immunity" against new ideas that do not corroborate previous ones. Historians of science call this the Planck Problem, after physicist Max Planck, who made this observation on what must happen for innovation to occur in science: "An important scientific innovation rarely makes its way by gradually winning over and converting its opponents: it rarely happens that Saul becomes Paul. What does happen is that its opponents gradually die out and that the growing generation is familiarized with the idea from the beginning" (1936, p. 97 [ 8 ]).

Psychologist David Perkins conducted an interesting correlational study in which he found a strong positive correlation between intelligence (measured by a standard IQ test) and the ability to give reasons for taking a point of view and defending that position; he also found a strong negative correlation between intelligence and the ability to consider other alternatives. That is, the higher the IQ, the greater the potential for ideological immunity. Ideological immunity is built into the scientific enterprise, where it functions as a filter against potentially overwhelming novelty. As historian of science I. B. Cohen explained, "New and revolutionary systems of science tend to be resisted rather than welcomed with open arms, because every successful scientist has a vested intellectual, social, and even financial interest in maintaining the Status quo. If every revolutionary new idea were welcomed with open arms, utter chaos would be the result" (1985, p. 35 [ 9 ]).

In the end, history rewards those who are "right" (at least provisionally). Change does occur. [ ... ] Ideological immunity can be overcome in science and in daily life, but it takes time and corroboration.

[ Übertragung ] [ Übersicht ]


E-Mail an Thomas Waschke an Thomas Waschke Stand: 9. August 2002