Intuition kann Erstaunliches vollbringen, aber auch grob daneben liegen. Treffsichere Intuition kann sich nur unter zwei Bedingungen entwickeln: Sofern die Situation aussagekräftige Signale erhält und die Adepten ausreichend Feedback erhalten.
Dieser Artikel ist Resultat einer "Adverse Collaboration" zwischen den Protagonisten zweier konkurrierender wissenschaftlicher Lager. Der Nobelpreisträger Daniel Kahneman, Mitbegründer der Prospect Theory und des "Heuristics and Biases"-Ansatzes, hatte eine Untersuchung veröffentlicht, in der er experimentell gezeigt hatte, dass die intuitiven Urteile von Experten oft weit daneben lagen und in vielen Fällen sogar schlechter waren als Vorhersagen, die aus einfachen Algorithmen abgeleitet waren. Gary Klein, Vertreter des "Naturalistic Decision Making" (NDM), hatte ihn dafür scharf kritisiert, vor allem mit dem Argument, dass seine Untersuchungen zum Beispiel der Real-Entscheidungen von Feuerwehrleuten und Krankenschwestern die hohe Treffsicherheit von Experten-Intuitionen bewiesen hätten. Kahneman, der nach eigenem Bekunden nichts von scharf geführten Debatten in akademischen Journalen hält, weil sie selten zu neuen Erkenntnissen führen, lud Klein daraufhin zu einer "Adverse Collaboration" ein, um den Dissens genauer zu verstehen und nach Möglichkeit zu klären.
Das ist in mehrfacher Hinsicht bemerkenswert. Erstens, weil es eine gewisse innere Größe erfordert, sich über alle intellektuellen Gräben hinweg auf eine klärende Zusammenarbeit einzulassen. Zweitens, weil es zeigt, dass es offenkundig nicht nur in der geisteswissenschaftlichen Psychologie unterschiedliche Denkschulen gibt, die zu völlig unterschiedlichen Interpretationen der Realität kommen (wie etwa die verschiedenen tiefenpsychologischen Glaubensgemeinschaften), sondern auch in der naturwissenschaftlich-experimentellen Psychologie. Drittens, weil es zeigt, dass die naturwissenschaftliche Methodik die Möglichkeit eröffnet, solche Kontroversen abschließend durch ein "Experimentum crucis" zu klären, auch wenn diese Möglichkeit zu selten genutzt wird. Und viertens, weil das Ergebnis dieser "Adverse Collaboration" im konkreten Fall nicht nur von theoretischem Interesse, sondern auch von hohem praktischen Nutzen ist.
Beachtenswert ist schon der Untertitel des gemeinsam veröffentlichten Artikels: "A Failure to Disagree". Kahneman und Klein haben, wiewohl sie keineswegs zu einer emotionalen Übereinstimmung in ihren Perspektiven gekommen sind, bei ihren Diskussionen keinen prinzipiellen inhaltlichen Dissens ausmachen können. Zwar begegnet Kahneman der Intuition von Experten grundsätzlich mit weit größerer Skepsis als Klein, doch weder zieht Kahneman in Zweifel, dass Experten oft Intuitionen von bemerkenswerter Treffsicherheit entwickeln, noch bestreitet Klein, dass auch Experten zu überzogenem Selbstvertrauen (Overconfidence) neigen und bei manchen intuitiven Urteilen und Entscheidungen völlig daneben liegen können. Anstelle eines "Experimentum crucis" trat daher die gemeinsame Suche nach den Bedingungen, unter denen Experten eine treffsichere Intuition entwickeln.
Sie stützen sich dabei auf die Erkenntnis, dass Intuition letztlich nichts anderes ist als Erinnerung: "the recognition of patterns stored in memory." (S. 516) Da müssen sie allerdings erst einmal hineinkommen. Wie verschiedene Forscher aus dem NDM-Umfeld gezeigt haben, brauchen Schachgroßmeister etwa eine Dekade intensiver Spielpraxis, um ein Repertoire von 50.000 bis 100.000 Spielzügen aufzubauen, welche sie auf Anhieb erkennen. Auf der Basis dieses Repertoires können sie in Sekundenschnelle Entscheidungen treffen, die denen ungeübter Spieler weit überlegen sind. Die NDM-Schule, deren Ziel es ist, Intuition zu demystifizieren, nennt das erinnerungsgestützte Entscheidungsstrategien ("recognition-primed decision strategies", RPD). In ähnlicher Weise lautet eine Faustregel, dass man 10.000 Übungsstunden braucht, um ein Musikinstrument meisterlich zu beherrschen.
Andererseits gibt es auch viele Belege dafür, dass Expertenurteile keineswegs immer meisterlich sind – viele davon hat die "Heuristics-and-Biases"-Schule um Daniel Kahneman zusammengetragen. So zeigt sich immer wieder, dass Expertenurteile inkonsistent und vielfältigen Verzerrungen unterworfen sind: "Human judgements are noisy to an extent that substantially impairs their validity." (S. 517) Was die Sache noch schlimmer macht, ist, dass uns die Intuition keine Hinweise darauf liefert, wie verlässlich sie ist. Kahneman nennt das die "Illusion von Verlässlichkeit" (illusion of validity). Daraus folgt auch, dass der Grad der subjektiven Gewissheit bedauerlich wenig über den Wahrheitsgehalt sagt. Wenn jemand also im Brustton der Überzeugung erklärt, er sei felsenfest von irgendetwas überzeugt, spricht er damit lediglich über seine Befindlichkeit und nicht, wie er in der Regel glaubt, über den unbezweifelbaren Wahrheitsgehalt seiner Aussage: "Subjective confidence is often determined by the internal consistency of the information on which the judgement is based, rather than by the quality of that information." (S. 522)
Aber wie unterscheidet sich dann eine treffsichere Intuition von einer illusionären, die nur auf verzerrenden Heuristiken basiert? Kahneman und Klein stützen sich dabei auf eine Definition kompetenter Intuition von Herbert A. Simon: "The situation has provided a cue: This cue has given the expert access to information stored in his memory, and the information provides the answer." (S. 520) Wenn das die "Feinmechanik der Intuition" ist, folgen daraus unmittelbar zwei notwendige Bedingungen für die Entwicklung treffsicherer Intuition: Erstens muss die Situation überhaupt valide Hinweise enthalten, und zweitens müssen die (angehenden) Experten die Gelegenheit gehabt haben, sie erkennen und verstehen zu lernen.
Fehlt es an solchen Signalen, weil die Situation inhärent unvorhersehbar ist – Kahneman und Klein nennen das ein "low-validity environment" –, hilft alle Erfahrung nichts: Dann ist schlicht keine Vorhersage möglich, und die Prognosen der Experten können nicht besser sein als die blutiger Laien, auch wenn sie aufgrund einzelner Zufallstreffer möglicherweise dazu neigen, ihre Fähigkeiten zu überschätzen. Doch die Existenz von Frühindikatoren reicht nicht; man muss auch die Chance haben, ihre Bedeutung zu erlernen. Das wiederum erfordert vor allem, ein zeitnahes Feedback über ihre Bedeutung zu erhalten. Dabei spielt es keine Rolle, ob die Experten kognitiv verstanden haben, was diese Signale sind – es reicht, dass sie sie treffsicher erkennen. Deshalb haben sie oft größte Schwierigkeiten anzugeben, was ihre Intuition ausgelöst hat. Aber es müssen Hinweise existieren, sonst hat das intuitive Wiedererkennen keine Chance. Was hingegen nicht erforderlich, ist, dass die Hinweise eindeutig und die Beziehung deterministisch ist: Damit Experten eine überdurchschnittliche Treffsicherheit haben, reicht es aus, dass ihre Intuition auf veränderte Wahrscheinlichkeiten reagiert.
Der spannendste Bereich ist dabei der, wo valide Hinweise zwar existieren, die Lernenden aber nur ein schwaches oder verzögertes Feedback enthalten. Wo keine validen Hinweise existieren, ist nichts zu wollen, gleich wie sehr man sich müht. Entsprechend schwach sind die Leistungen bei "stockbrokers, clinical psychologists, psychiatrists, college admission officers, court judges, personnel selectors, and intelligence analysts" (S. 522). Wo das Feedback von Natur aus zeitnah und klar ist, ist das Entstehen treffsicherer Intuition wahrscheinlich: "Where simple and valid clues exist, humans will find them if they are given sufficient experience and enough rapid feedback to do so." (S. 523). Das gilt laut etwa für "livestock judges, astronomers, test pilots, soil judges, chess masters, physicists, mathematicians, accountants, grain inspectors, photo interpreters, and insurance analysts" (S. 522)
Das größte Potenzial für Verbesserungen liegt in den Situationen, die dazwischen liegen – also in denen, wo Hinweise zwar vorhanden, aber schwer zu identifizieren und richtig zuzuordnen sind. Hier könnte eine systematische Schulung vermutlich die größten Effekte erzielen. Eine systematische Methode dafür hat Gary Klein entwickelt, und Daniel Kahneman unterstreicht ihren Nutzen, nämlich die sogenannte "Prä-Mortem-Analyse". Sie hilft Projektteams, ihre Entscheidungen zu verbessern, und ist daher besonders für risikobehaftete Großprojekte zu empfehlen. Dazu sollen sich alle Mitglieder des Projektteams, nachdem sie ihre Planung abgeschlossen haben, vorzustellen, ihr Plan sei gescheitert und das Projekt in einem Desaster geendet. Ihre Aufgabe ist nun, jeder für sich in zwei Minuten die Gründe dafür aufzuschreiben. Die Gründe werden diskutiert und zu einer Verbesserung der Planung verwendet. Diese Methode macht sich das Konzept des "Rückblicks aus der Zukunft" (prospective hindsight) zunutze, hinter dem die Erkenntnis steht, dass wir Menschen besser darin sind, bereits eingetretene Ereignisse zu erklären, als, in der Zukunft liegende vorherzusagen.
|