Unser Mensch warf uns diese Frage mit der besonderen Energie von jemandem zu, der gerade versucht hatte, etwas vollkommen Offensichtliches zu erklären — und es über eine ganze Reihe von Köpfen hinwegsegeln sah. Die Frage: Warum nehmen Menschen an, dass das, was ihnen offensichtlich erscheint, auch für alle anderen offensichtlich ist?
Die kurze Antwort ist ein Konstruktionsfehler. Sobald Ihr Gehirn etwas weiß, kann es nicht mehr genau rekonstruieren, wie es war, es nicht zu wissen. Dieser Fehler wurde in der Psychologie unter mindestens fünf verschiedenen Namen untersucht: der Fluch des WissensKognitive Verzerrung, bei der man sich nicht mehr vorstellen kann, etwas nicht zu wissen, und daher überschätzt, wie offensichtlich dieses Wissen für andere ist., der Effekt des falschen Konsensus, die Illusion der TransparenzDer irrtümliche Glaube, dass die eigenen Gefühle und Gedanken für andere besser erkennbar sind, als sie es tatsächlich sind., der naive Realismus, der Bias-Blindspot. Sie erscheinen als getrennte Phänomene. Das sind sie nicht. Sie sind allesamt Symptome eines einzigen zugrunde liegenden Problems: Ihr Gehirn verwendet sich selbst als Referenzmodell für andere Köpfe — und die Korrektur, die es vornimmt, ist niemals groß genug.
Die Klopf-Studie
Im Jahr 1990 führte eine Doktorandin der Stanford University namens Elizabeth Newton eines der elegantesten Experimente in der kognitiven Psychologie durch. Sie teilte die Teilnehmer in zwei Gruppen ein: Klopfer und Zuhörer. Die Klopfer wählten ein bekanntes Lied und klopften den Rhythmus auf einen Tisch. Die Zuhörer versuchten, das Lied zu erraten.
Bevor die Zuhörer rieten, fragte Newton die Klopfer: Welcher Prozentsatz wird es richtig erraten? Die Klopfer antworteten: etwa 50 %. Die Melodie spielte in ihren Köpfen, laut und klar. Wie konnte das jemand verfehlen?
Die Zuhörer lagen in 2,5 % der Fälle richtig. Drei richtige Antworten bei 120 Versuchen.
Die Klopfer konnten die Musik in ihrem eigenen Kopf nicht wieder verlernen. Sie konnten sich nicht vorstellen, wie das Klopfen ohne die Melodie klang: eine zufällige, arrhythmische Abfolge von Schlägen auf einen Tisch. Die Lücke zwischen Vorhersage (50 %) und Realität (2,5 %) ist der Fluch des WissensKognitive Verzerrung, bei der man sich nicht mehr vorstellen kann, etwas nicht zu wissen, und daher überschätzt, wie offensichtlich dieses Wissen für andere ist. in einer einzigen Zahl.
Elizabeth Newtons Doktordissertation (1990) an der Stanford University (« The Rocky Road from Actions to Intentions ») lieferte eine der klarsten experimentellen Demonstrationen des Fluches des Wissens. Die Teilnehmer wurden als Klopfer oder Zuhörer eingeteilt. Klopfer wählten Lieder aus einer Liste von 25 bekannten Melodien und klopften den Rhythmus. Zuhörer versuchten, die Lieder zu identifizieren.
Die Klopfer schätzten eine Erkennungsrate von 50 % (individuelle Schätzungen lagen zwischen 10 % und 95 %). Die tatsächliche Rate über 120 Versuche betrug 2,5 %. In einer Folgebedingung hörten Klopfer einem Versuchsleiter zu, der ihre gewählten Lieder klopfte, und behielten die ~50-%-Vorhersage bei — was darauf hindeutet, dass die Verzerrung nicht auf übermäßiges Vertrauen in die eigene Klopffähigkeit zurückzuführen war, sondern auf die strukturelle Unfähigkeit, privates Wissen außer Acht zu lassen.
Der Begriff « Fluch des WissensKognitive Verzerrung, bei der man sich nicht mehr vorstellen kann, etwas nicht zu wissen, und daher überschätzt, wie offensichtlich dieses Wissen für andere ist. » wurde ein Jahr zuvor von Camerer, Loewenstein und Weber (1989) im Journal of Political Economy geprägt. Ihre Experimente zeigten, dass besser informierte Akteure private Informationen nicht ignorieren konnten, selbst bei finanziellen Anreizen. Marktkräfte reduzierten die Verzerrung um etwa 50 %, ohne sie zu eliminieren.
Ein Fehler, fünf Namen
Der Fluch des WissensKognitive Verzerrung, bei der man sich nicht mehr vorstellen kann, etwas nicht zu wissen, und daher überschätzt, wie offensichtlich dieses Wissen für andere ist. ist die am häufigsten untersuchte Version dieses Problems, aber derselbe Fehler taucht in mindestens vier weiteren Formen auf. Betrachten Sie sie als denselben Bug, der in verschiedenen Programmen läuft.
Der Effekt des falschen Konsensus besteht darin, anzunehmen, dass Ihre Meinungen die Mehrheitsmeinung sind. Eine Stanford-Studie von 1977 fragte Studierende, ob sie mit einem Sandwich-Schild mit der Aufschrift « Eat at Joe’s » über den Campus laufen würden. Unabhängig von ihrer persönlichen Entscheidung nahmen sie an, dass die meisten anderen dieselbe Wahl treffen würden. Sowohl die Ja-Gruppe als auch die Nein-Gruppe glaubte, ihre Entscheidung sei die normale.
Die Illusion der TransparenzDer irrtümliche Glaube, dass die eigenen Gefühle und Gedanken für andere besser erkennbar sind, als sie es tatsächlich sind. besteht darin, anzunehmen, dass andere sehen können, was Sie fühlen. Wenn Sie während einer Präsentation nervös sind, nehmen Sie an, dass das Publikum es merkt. Forschungen von Gilovich, Savitsky und Medvec (1998) zeigten, dass Menschen systematisch überschätzen, wie sichtbar ihre inneren Zustände für Beobachter sind. Eine verwandte Studie von Keysar und Henly (2002) ergab, dass Sprecher glaubten, ihre beabsichtigte Bedeutung in 72 % der mehrdeutigen Aussagen kommuniziert zu haben. Zuhörer erfassten sie tatsächlich 61 % der Zeit.
Naiver RealismusDie Überzeugung, die Realität so wahrzunehmen, wie sie objektiv ist, was zur Annahme führt, Andersdenkende seien uninformiert oder irrational. ist die Überzeugung, die Realität so wahrzunehmen, wie sie tatsächlich ist — ohne Verzerrung. Wenn Sie die Realität klar sehen, muss jeder, der anderer Meinung ist, unwissend, irrational oder voreingenommen sein. Der Sozialpsychologe Lee Ross prägte den Begriff, um das Fundament der meisten zwischenmenschlichen und politischen Konflikte zu beschreiben: Jede Seite glaubt, die Welt so zu sehen, wie sie ist — was bedeutet, dass die andere Seite das Problem haben muss.
All diese Phänomene teilen denselben zugrunde liegenden Mechanismus. Ihr Gehirn beginnt mit Ihrer eigenen Perspektive und versucht, sich der Perspektive eines anderen anzupassen. Die Anpassung ist immer zu gering.
Der Fluch des WissensKognitive Verzerrung, bei der man sich nicht mehr vorstellen kann, etwas nicht zu wissen, und daher überschätzt, wie offensichtlich dieses Wissen für andere ist. ist eine Instanz einer umfassenderen egozentrischen Ankerverzerrung bei der Perspektivenübernahme. Derselbe Mechanismus erzeugt mindestens vier weitere dokumentierte Effekte.
Effekt des falschen Konsensus. Ross, Greene und House (1977) demonstrierten in vier Studien (N = 320), dass Menschen systematisch die Verbreitung ihrer eigenen Entscheidungen, Überzeugungen und Präferenzen in der Allgemeinbevölkerung überschätzen. Im « Sandwich-Schild »-Paradigma schätzten Teilnehmer, die bereit waren, ein Werbeschild zu tragen, eine Mehrheit für die Zustimmung; jene, die ablehnten, schätzten eine Mehrheit für die Ablehnung. Entscheidend: Teilnehmer formulierten stärkere dispositionale Attributionen gegenüber Personen, die anders gewählt hatten — die andere Wahl war nicht nur seltener, sondern charakteristisch für die Persönlichkeit. Der Effekt war bei politischen Ansichten am stärksten. In der folgenden Dekade wurden etwa 50 Folgestudien veröffentlicht.
Illusion der TransparenzDer irrtümliche Glaube, dass die eigenen Gefühle und Gedanken für andere besser erkennbar sind, als sie es tatsächlich sind.. Gilovich, Savitsky und Medvec (1998) zeigten, dass Menschen die Erkennbarkeit ihrer inneren Zustände (Emotionen, Täuschungen, Absichten) für Beobachter überschätzen. Lügner überschätzten die Erkennbarkeit ihrer Lügen; Personen, die Ekel empfanden, überschätzten die Sichtbarkeit ihrer Reaktion. Keysar und Henly (2002) erweiterten dies auf die Kommunikationseffektivität: Sprecher glaubten, ihre beabsichtigte Bedeutung in 72 % der mehrdeutigen Aussagen übermittelt zu haben, während Zuhörer die beabsichtigte Bedeutung 61 % der Zeit erfassten. Wenn Zuhörer nicht verstanden, glaubten Sprecher in 46 % der Fälle, erfolgreich kommuniziert zu haben.
Naiver RealismusDie Überzeugung, die Realität so wahrzunehmen, wie sie objektiv ist, was zur Annahme führt, Andersdenkende seien uninformiert oder irrational.. Lee Ross und Kollegen formalisierten die Beobachtung, dass Menschen ihre eigene Wahrnehmung der Realität als objektiv, unvermittelt und normativ geteilt behandeln. Dies erzeugt eine vorhersagbare Attributionskette: « Ich sehe die Realität klar; Meinungsverschiedenheiten implizieren, dass die andere Partei uninformiert, irrational oder von Vorurteilen geleitet ist. » Das Rahmenwerk wurde umfassend auf politische Polarisierung, Konfliktlösung und die Persistenz von Meinungsverschiedenheiten zwischen Gruppen mit Zugang zu denselben Beweisen angewendet.
Der einheitliche Mechanismus über alle fünf Effekte hinweg ist die Verankerung am eigenen mentalen Zustand mit serieller, aufwendiger und zuverlässig unzureichender Anpassung in Richtung der Zielperspektive.
Selbst die Vergangenheit wird offensichtlich
Derselbe Fehler wirkt auch zeitlich rückwärts. Sobald Sie wissen, wie etwas ausgegangen ist, scheint es plötzlich, als hätte es immer so ausgehen müssen.
Denken Sie an ein beliebiges bedeutendes Ereignis im Nachhinein. Eine Finanzkrise. Ein Wahlergebnis. Ein Krieg. Nachdem das Ergebnis bekannt ist, reihen sich Kommentatoren ein, um zu erklären, warum es unvermeidlich war. Die Warnsignale waren da. Jeder hätte es kommen sehen können. Außer dass es fast niemand getan hat.
Der Psychologe Baruch Fischhoff dokumentierte dies in einer Reihe grundlegender Studien von 1975. Personen, denen mitgeteilt wurde, dass ein Ergebnis eingetreten war, bewerteten dieses Ergebnis durchweg als vorhersehbarer als Personen, denen keine Information gegeben wurde. Fischhoff nannte es « schleichenden Determinismus » (creeping determinism): Die Vergangenheit wird schrittweise unvermeidlich, sobald man weiß, wie die Geschichte endet.
Das ist der Fluch des WissensKognitive Verzerrung, bei der man sich nicht mehr vorstellen kann, etwas nicht zu wissen, und daher überschätzt, wie offensichtlich dieses Wissen für andere ist. auf die Zeit angewendet. Sobald Sie die Antwort haben, können Sie nicht mehr genau rekonstruieren, wie die Frage aussah, bevor Sie sie hatten.
Fischhoff (1975) führte das Konzept des « schleichenden Determinismus » (creeping determinism) in grundlegenden Studien ein, die zeigen, dass Ergebniskenntnis retrospektive Wahrscheinlichkeitsschätzungen systematisch verzerrt. Teilnehmer, die Ergebnisinformationen erhielten, bewerteten dieses spezifische Ergebnis als vorhersehbarer als Kontrollpersonen ohne Ergebnisinformation.
Fünfzig Jahre nachfolgender Forschung haben diesen Effekt über Kulturen, Altersgruppen und Bereiche hinweg repliziert. Er zählt zu den robustesten Befunden der kognitiven Psychologie. Der Mechanismus ist derselbe Anker-und-Anpassungs-Prozess: Das Wissen über das Ergebnis wird zum Anker, und die Anpassung in Richtung des früheren uninformierten Zustands ist unzureichend. Die Person scheitert nicht nur daran, die Ergebnisinformation zu subtrahieren; sie kann ihre frühere Unsicherheit nicht mehr auffinden, sobald das Ergebnis assimiliert wurde.
Die Falle in der Falle
Hier ist der unbequeme Teil. Beim Lesen denken Sie vielleicht: « Gut zu wissen. Ich werde darauf achten. » Dieser Impuls — das Gefühl, dass Bewusstsein Sie schützen wird — ist selbst eine dokumentierte Verzerrung.
Emily Pronin, Daniel Lin und Lee Ross (2002) führten eine Reihe von Studien durch, in denen Stanford-Studierende gefragt wurden, wie anfällig sie im Vergleich zur Durchschnittsperson für verschiedene kognitive Verzerrungen sind. Die Ergebnisse waren konsistent: Die Teilnehmer bewerteten sich selbst als deutlich weniger verzerrt als alle anderen. Als ihnen Beschreibungen spezifischer Verzerrungen gezeigt wurden (einschließlich solcher, die sie gerade demonstriert hatten), behaupteten sie weiterhin, dass diese Verzerrungen andere stärker beträfen als sie selbst.
Das ist der Bias-Blindspot. Sie können über Verzerrungen lernen, sie intellektuell verstehen, einem Artikel genau wie diesem zustimmen — und trotzdem glauben, persönlich weniger betroffen zu sein als die Menschen um Sie herum. Das Wissen erzeugt keine Immunität. Es erzeugt die Illusion der Immunität.
Pronin, Lin und Ross (2002) dokumentierten den Bias-Blindspot in drei Studien. In Studie 1 bewerteten Teilnehmer ihre eigene Anfälligkeit für kognitive Verzerrungen mit einem Mittelwert von 5,31, gegenüber 6,75 für den durchschnittlichen Amerikaner (p < 0,0001). Die Asymmetrie galt für alle Verzerrungstypen, einschließlich solcher, die den Teilnehmern gerade beschrieben worden waren.
In einer Folgestudie bestanden Teilnehmer, die nachweislich die Bessere-als-der-Durchschnitt-Verzerrung gezeigt hatten, weiterhin darauf, dass ihre Selbsteinschätzungen objektiv seien — selbst nachdem sie eine Beschreibung der Verzerrung und ihrer möglichen Auswirkung auf sie gelesen hatten. In einer abschließenden Studie beurteilten Teilnehmer die selbstdienlichen Attributionen ihrer Gleichaltrigen als verzerrt, während sie ihre eigenen identisch selbstdienlichen Attributionen als unverzerrt bewerteten.
Der Bias-Blindspot ist strukturell immun gegenüber Aufklärung über Verzerrungen. Das Wissen über den Katalog kognitiver Verzerrungen erzeugt eine neue Form desselben egozentrischen Fehlers: « Ich kenne die Verzerrungen, also bin ich weniger verzerrt als Menschen, die sie nicht kennen. » Die metakognitive Anpassung ist — erneut — unzureichend.
Der Fluch des WissensKognitive Verzerrung, bei der man sich nicht mehr vorstellen kann, etwas nicht zu wissen, und daher überschätzt, wie offensichtlich dieses Wissen für andere ist. in der Praxis
Das sind keine akademischen Kuriositäten. Der Fluch des Wissens und seine Varianten verursachen messbaren Schaden in jedem Bereich, in dem eine Person mit einer anderen kommunizieren, sie unterrichten, für sie gestalten oder sie überzeugen muss.
Lehre. Experten, die ein Fach verinnerlicht haben, überschätzen systematisch, wie klar ihre Erklärungen sind. Der Mathematikprofessor, der sagt « der Beweis ist trivial », ist nicht (nur) arrogant. Er kann schlicht nicht mehr rekonstruieren, wie der Beweis für jemanden aussieht, der ihm zum ersten Mal begegnet. Deshalb sind Fachkompetenz und Unterrichtsfähigkeit nahezu unzusammenhängende Fähigkeiten.
Produktgestaltung. Der Ingenieur, der die Benutzeroberfläche entworfen hat, weiß, wo die Schaltflächen sind. Der Benutzer nicht. Die Illusion der TransparenzDer irrtümliche Glaube, dass die eigenen Gefühle und Gedanken für andere besser erkennbar sind, als sie es tatsächlich sind. überzeugt den Designer, dass die Logik selbstverständlich ist. Benutzertests funktionieren genau deshalb, weil sie eine Kollision zwischen dem mentalen Modell des Designers und der tatsächlichen Erfahrung des Benutzers erzwingen.
Medizin. Ärzte überschätzen, wie gut Patienten Diagnosen, Medikamentanweisungen und Risikoinformationen verstehen. Kommunikationsprobleme im Gesundheitswesen sind nicht in erster Linie auf medizinischen Fachjargon zurückzuführen. Sie entstehen durch die strukturelle Unfähigkeit von jemandem, der einen Sachverhalt versteht, zu modellieren, wie er für jemanden klingt, der ihn nicht versteht.
Politik. Naiver RealismusDie Überzeugung, die Realität so wahrzunehmen, wie sie objektiv ist, was zur Annahme führt, Andersdenkende seien uninformiert oder irrational. ist der Motor der Polarisierung. Jede Seite glaubt, die Realität klar zu sehen, was die Meinungsverschiedenheit der anderen Seite nur durch Dummheit oder Böswilligkeit erklärbar macht. Der Effekt des falschen Konsensus bläht die Schätzung jeder Seite über ihre eigene Unterstützung auf. Zusammen erzeugen diese Verzerrungen die spezifische Überzeugung, die die schlimmsten politischen Ergebnisse antreibt: « Jeder vernünftige Mensch würde mir zustimmen. »
Beziehungen. Die Illusion der Transparenz überzeugt Sie, dass Ihr Partner weiß, wie Sie sich fühlen, ohne dass Sie es sagen. Das tut er nicht. Theory of MindDie kognitive Fähigkeit zu verstehen, dass andere Menschen Überzeugungen, Wünsche, Absichten und Wissen haben, die von den eigenen abweichen — die geistige Kapazität, die Empathie, soziale Vorhersage und Situationswahrnehmung ermöglicht., die Fähigkeit, den mentalen Zustand einer anderen Person zu modellieren, ist eine Fähigkeit, die explizite Informationen erfordert — kein psychisches Gespür, das auf Umgebungssignalen operiert.
Was tatsächlich hilft
Die Forschung zur Verzerrungsreduktion ist nicht ermutigend, aber nicht hoffnungslos.
Einfach über den Fluch des Wissens Bescheid zu wissen, eliminiert ihn nicht. (Siehe Bias-Blindspot, oben.) Aber eine Intervention hat gute Belege: Savitsky und Gilovich (2003) stellten fest, dass Sprecher, die vor einer Rede über die Illusion der Transparenz informiert wurden, weniger Angst berichteten und vom Publikum als gefasster eingeschätzt wurden. Das Bewusstsein tötete die Verzerrung nicht, veränderte aber das Verhalten am Rand.
Benutzertests in der Produktgestaltung funktionieren aus demselben strukturellen Grund. Sie machen den Designer nicht weniger « verflucht ». Sie liefern ihm Daten von Menschen, die es nicht sind. Die Lösung liegt nicht in Ihrem Kopf; sie liegt im Prozess.
Das zuverlässigste Gegenmittel ist institutionell, nicht individuell. Checklisten, Benutzertests, Teach-back-Protokolle in der Medizin, Red Teams, Beta-Leser, Fokusgruppen: Diese Werkzeuge funktionieren, indem sie die Perspektive von Menschen einbringen, die Ihr Wissen nicht teilen. Sie können Unwissenheit nicht simulieren. Aber Sie können jemanden fragen, der sie tatsächlich hat.
Diese Formulierung klingt hart. « Unwissend » bedeutet hier « ohne diese spezifische Information », nichts weiter. Der Dunning-Kruger-Effekt wird oft instrumentalisiert, um Menschen zu verspotten, die weniger wissen. Der Fluch des Wissens ist sein Spiegelbild: Je mehr Sie wissen, desto mehr sind Sie gefangen. Beide Richtungen des Wissensgefälles erzeugen Verzerrung.
Die unbequeme Erkenntnis
Der zentrale Befund dieser Forschung ist kontraintuitiv und wird mit Wiederholung nicht leichter: Je mehr Sie wissen, desto schlimmer wird es. Fachkompetenz vertieft den Fluch. Je gründlicher Sie einen Wissensbestand verinnerlicht haben, desto schwieriger wird es, zu modellieren, wie dieses Wissen von außen aussieht.
Wenn Ihnen das nächste Mal etwas offensichtlich erscheint, halten Sie inne. Fragen Sie: offensichtlich für wen? Ihr Gefühl der Offensichtlichkeit ist keine Messung der Welt. Es ist eine Messung Ihres eigenen Kopfes. Die gesamte oben beschriebene Forschung existiert genau deshalb, weil diese beiden Dinge nicht dasselbe sind.



