Bias im Alltag – Der Feind in meinem Kopf
Bias im Alltag – Wie kognitive Verzerrungen unsere Entscheidungen beeinflussen
Viele Menschen gehen davon aus, dass sie in ihrem Alltag absolut rational und unvoreingenommen handeln. Diese Überzeugung ist oft mit unserem positiven Selbstbild verbunden, da gesellschaftliche Vorurteile nicht gern gesehen werden.
Doch die Realität zeigt, dass unsere Wahrnehmung, Erinnerung und Urteile häufig von unbewussten Grundannahmen beeinflusst werden. Dieses Phänomen wird als „Bias“ bezeichnet und kann in verschiedenen Lebensbereichen auftreten.
Der Begriff „Bias“ stammt aus der Meinungsforschung und beschreibt eine kognitive Verzerrung. Diese Verzerrungen entstehen oft durch systematische Fehler, sei es durch Vorurteile oder selektive Wahrnehmung. Im Alltag bedeutet das, dass unsere Entscheidungen und Bewertungen von Informationen von diesen Verzerrungen beeinflusst werden können.
Kognitive Verzerrungen sind ganz normal und kommen im Alltag häufig vor. Unser Gehirn verarbeitet täglich eine enorme Menge an Informationen, und wir müssen zahlreiche Entscheidungen treffen. Dabei greift unser Gehirn auf Heuristiken zurück und auch auf vereinfachte Denkmuster, die auf früheren Erfahrungen beruhen. Diese Denkmuster können dazu führen, dass wir Informationen selektiv wahrnehmen oder falsch interpretieren.
Hier sind sieben wichtige Bias, denen wir im Alltag immer wieder begegnen:
Confirmation Bias – Bestätigungsverzerrung
Wir Menschen neigen dazu, Informationen zu suchen und zu interpretieren, die unsere bestehenden Meinungen oder Überzeugungen bestätigen. Das kann dazu führen, dass wir widersprechende Informationen ignorieren oder ausblenden. Zum Beispiel suchen wir oft nach Nachrichtenquellen, die unsere politischen Ansichten bestätigen, anstatt verschiedene Perspektiven zu berücksichtigen. Der Confirmation Bias beruht auf eine menschliche Schwäche: Wir möchten unsere Meinungen oder Überzeugungen durch andere bestätigt sehen.
Darum verzichten wir gern auf eine detaillierte Recherche und genauer Analyse unserer eigenen Grundannahmen, weil wir uns der Gefahr aussetzen könnten, diese schlimmstenfalls verwerfen zu müssen. Unterstützung dabei erhalten wir von unserem Gehirn. Von Natur aus ist unser Gehirn schlichtweg faul und es hasst es wirklich, zusätzliche Energie für etwas aufwenden zu müssen, was nicht in direktem Zusammenhang mit dem Überleben seines Gehirnbesitzers steht. Wissenschaftlich wird das mit einer effektiven und effizienten Arbeitsweise und einem ausbalancierten Umgang von Energie begründet. Die Natur verschwendet nichts. Doch um uns aus der Komfortzone und der Denkfaulheit herausholen zu können, müssen wir zusätzliche Energie aufwenden. Darauf hat unser Gehirn keinen Bock und so stiftet es uns an, stumpf auf unser Recht zu beharren und gar nicht erst nach widersprechenden Belegen zu suchen.
Beispiel: Wenn du glaubst, dass die meisten Raser einen BMW fahren, dann wirst du genau diese Automarke im Verkehr beim Drängeln, Lichtupen und vorbeirasen ausmachen können.
Interviewer Bias – Verzerrungen durch Suggestivfragen
In Gesprächen oder Interviews können Fragen so gestellt werden, dass sie gewünschte Antworten hervorrufen. Dies kommt häufig in der Marktforschung oder Umfragen vor, wenn die Fragen eine bestimmte Antwort implizieren. Die Antworten sind dann möglicherweise nicht repräsentativ für die tatsächliche Meinung der Befragten. Gewünschte Antworten werden bewusst durch Suggestivfragen forciert und liefern dann Antworten, die dann leider nicht mehr aussagekräftig sind. Sie nehmen eine gezielte und verdeckte Einflussnahme vor.
Beispiel: “Du findest doch auch, dass es die beste Entscheidung ist, diesen Beitrag zu Ende zu lesen, damit du die häufigsten Bias deiner Mitmenschen fehlerfrei identifizieren kannst?”
Hindsight Bias – Fehler in der Vorhersage
Im Nachhinein neigen wir dazu, vergangene Ereignisse als vorhersehbar zu betrachten, selbst wenn sie es nicht waren. Diese Rückschaufehler entstehen, weil wir Menschen dazu neigen unsere eigenen Vorhersage-Fähigkeiten gnadenlos zu überschätzen und von uns vorhergesagte Ereignisse nachträglich deuten. Der Hindsigt Bias nistet sich auf der Gedächtnis-, der Glaubens- und der Selbsteinschätzungsebene fest. Auf der Gedächtnisebene glauben die Menschen, dass sie die Zukunft richtig vorhergesagt haben, obwohl dies nicht der Fall ist. Wenn sich herausstellt, dass ihre Prognose falsch war, passen sie ihre Erinnerung so an, dass sie zu den tatsächlichen Entwicklungen passt. Auf der Glaubensebene führt das oft dazu, dass es den Menschen im Nachhinein so erscheint, als wäre der Ausgang einer Situation von Anfang an unvermeidlich gewesen. Auf der Selbsteinschätzungsebene kann ein solcher Rückschaufehler die Selbsteinschätzung einer Person dahingehend beeinflussen, dass sie ihre eigenen Prognosefähigkeiten überschätzt.
Beispiel: Ein Mensch beobachtet in seinem Freundeskreis, dass sich ein bestimmtes Pärchen häufig und regelmäßig streitet. Nach geraumer Zeit teilt das Pärchen seinem Freundeskreis die Trennung mit. Der beobachtende Mensch aus dem Beispiel hat sich bisher nicht groß zu dem Thema geäußert, doch jetzt erwischen wir ihn bei der Aussage: „Das habe ich doch gleich gewusst!“ oder „Das war offensichtlich – ich habe noch nie daneben gelegen, denn auf mein Bauchgefühl ist Verlass!“
Selection Bias – methodischer Pfusch
Wenn bei einer Stichprobe methodische Fehler auftreten und sie nicht repräsentativ ist, können falsche Schlussfolgerungen gezogen werden. Ein Beispiel ist die Auswahl von Testimonials für ein Produkt, bei der nur positive Erfahrungen berücksichtigt werden, während negative Erfahrungen ignoriert werden. Auch die Größe einer Stichprobe spielt eine Rolle, ist diese nicht repräsentativ, führt das dazu, dass die Merkmale nicht so verteilt sind, wie sie es in Wirklichkeit sind.
Beispiel: Einem Text zur Einführung einer neuen Anti-Aging-Creme können wir folgendes entnehmen: “Glatte Haut ohne Botox – die 17 Probandinnen unserer Studie sind restlos von den Ergebnissen begeistert.”
Availability Bias – Wahrscheinlichkeitsfehler zur Verfügbarkeit
Menschen neigen dazu, die Wahrscheinlichkeit von Ereignissen aufgrund ihrer eigenen Erfahrungen oder aufgrund von Informationen, die leicht verfügbar sind, einzuschätzen. Zum Beispiel neigen wir dazu, zu glauben, dass Flugreisen gefährlicher sind als Autofahrten, wenn wir gerade von einem Flugzeugabsturz gehört haben, obwohl Statistiken das Gegenteil zeigen. Der Bias okkupiert unser Gehirn, wenn wir bei einem Ereignis beurteilen müssen, wie wichtig und wie wahrscheinlich es ist und wie häufig wir damit konfroniert werden könnten. Wenn verlässliche Informationen wie Statistiken fehlen, greifen wir auf eigene Erfahrungen oder Berichte aus den Massenmedien zurück.
Beispiel: Wenn in deiner Nachbarschaft zwei Hunde, die vor einem Supermarkt angebunden waren, gestohlen wurden, dann schätzt du mit diesem Wissen im Hinterkopf, die Wahrscheinlichkeit höher ein, dass dein Wauzi beim nächsten Einkauf ebenfalls gestohlen werden könnte. Und du lässt ihn Zuhause.
Ingroup Bias – Meine Gruppe ist die sympathischste
Wir neigen dazu, Mitglieder unserer eigenen sozialen Gruppe positiv zu bewerten und ihnen mehr Vertrauen entgegenzubringen als Personen außerhalb dieser Gruppe. Dies kann zu Vorurteilen und Diskriminierung führen und unsere sozialen Interaktionen beeinflussen. Wir sind bereits in unserer Schulzeit darauf konditioniert worden, dass Außenseiter kein schönes Leben haben. Daher bevorzugen wir die Anpassung an die Gruppe, der wir selber angehören wollen, um deren Schutz nicht zu verlieren. Diesem Bias liegen urzeitliche Erfahrungen aus dem Paläolithikum zu Grunde. Also den Ur-Zeiten, in denen wir im Fellkleid durch die Prärie tobten und Mammuts erlegten und in denen ein Ausschluss aus dem Stamm unseren sicheren Tod bedeutet hätte. Mit der Gleichschaltung unserer Meinungen erzeugen wir eine Illusion der Überlegenheit, die uns früher zwar das Leben gerettet hat, uns heute aber dabei einschränken könnte, aus verschiedenen Perspektiven zu denken und zu lernen.
Beispiel: Wir treffen auf Personen, die uns ähnlich sind und wir nehmen sie intelligenter als andere war, da sie unsere Perspektiven, Interessen und Überzeugungen bestätigen.
Authority Bias – Obrigkeitsdenken und Obrigkeitshörigkeit
Wir tendieren dazu, Informationen von Autoritäten oder Experten unkritisch zu akzeptieren, ohne sie zu hinterfragen. Dies kann dazu führen, dass wir falsche Informationen akzeptieren, nur weil sie von einer als „autoritär“ angesehenen Quelle stammen. Aussagen von Menschen bestimmter Autoritätsgruppen, wie wir sie z.B. auf politischen Bühnen antreffen, schenken wir deshalb mehr Gläubigkeit. Dieses Bias hat seine Wurzeln in unserer Kindheit – unsere Eltern und Lehrer waren unsere ersten Vorbilder und wir hatten zu erfüllen, was sie forderten. Unser kritisches Denken war noch nicht ausgebildet und wir schrieben ihnen eine besondere Expertise zu. Deshalb glaubten wir ihnen zunächst blind. Je nach Erziehung und intrinsischer Motivation oder besonderen Schlüsselerlebnissen konnten wir unsere Annahme ändern. Denn wir erhielten die Chance ein kritisches Denken zu entwickeln und daraus folgern zu können, dass vermeintliche Experten in einer hierarchisch überlegeneren Position, nicht automatisch frei von Fehlern sind und irren können.
Beispiel: Dr. Best, der Zahnarzt der die Tomate mit der Zahnbürste drückt. Der Doc ist echt und stammt aus Chicago auch wenn er einem berühmten Schauspieler der 60iger Jahre ähnelt. Eine Autoritätsfigur durch und durch, der wir gerne folgen und beim nächsten Einkauf nach der Zahnbürste mit dem elastischen Schwingkopf schielen.
Jeder von uns leidet unter kognitiven Verzerrungen
Unser Gehirn verarbeitet eintrudeln Informationen auf zwei Arten:
Intuitiv: Das Gehirn reagiert spontan, emotional, rasant und trifft Entscheidungen basierend auf wenige unvollständige Informationen. Wir handeln aus einem Affekt heraus. Evolutionsbiologisch war das überlebenswichtig, denn wenn es in der Prärie hinterm Busch geraschelt hat, hatten wir keine Zeit einen Sitzkreis zu bilden und mit unseren Stammesgenossen zu diskutieren, ob da ein Dodo mit den Füßen scharrt oder ein Säbelzahntiger in Angriffsstellung ging. Dass es dich heute gibt und du diesen Text liest ist der Aufmerksamkeit und der Entscheidungsfreudigkeit deiner Steinzeit-Ur-Oma geschuldet. Wäre sie kein Angsthase gewesen, wäre die mütterliche Erblinie mit der des Dodos ausgelöscht worden. Im Intuitiven Modus arbeitet dein Gehirn pfeilschnell.
Rational: Das Gehirn reagiert analysierend, rational, behäbig und trifft Entscheidungen auf Basis komplexer Informationen. Wir handeln auf der bewussten Ebene und wägen gedanklich die Vor- und Nachteile gegeneinander ab. Rationale Entscheidungen beruhen auf einem mathematisch-logischen Zugang und Verständnis. So hatte der Steinzeit-Opa und Stammesführer vielleicht die Entscheidung zu treffen, ob er seinen Stamm von 60 Mitgliedern kurz vor Wintereinbruch noch weiter durch die Prärie scheucht, um doch noch eine schützende Höhle zu finden. Im sicheren Wissen, dass die meisten Mitglieder nicht überleben würden, wenn sie vor Ort blieben, beriet er sich mit den Stammesältesten: Sie sollten entscheiden, ob der Stamm das Risiko eingehen sollte vor Ort zu bleiben und somit das überleben von 20 Mitgliedern zu sichern. Oder ob sie den Marsch durch unbekanntes Gebiert mit der Suche nach einer Höhle zum Überwintern wagen sollten und somit das Überleben von 40 Mitgliedern sichern würden. (Ja, der Steinzeit-Opa war wirklich schlau, vermutlich ein Vorfahre von Einstein oder so … )
Um dich selbst besser vor Bias zu schützen, gibt es mehrere Schritte und Techniken, die du anwenden kannst. Hier sind einige Empfehlungen:
- Bewusstsein entwickeln: Der erste Schritt ist, sich bewusst zu machen, dass Bias existieren und dass jeder davon betroffen sein kann. Dieses Bewusstsein allein kann dazu beitragen, voreingenommenes Denken zu erkennen und anzugehen.
- Selbstreflexion: Regelmäßige Selbstreflexion ist entscheidend. Frage dich selbst, ob deine Überzeugungen oder Entscheidungen von Vorurteilen beeinflusst sein könnten. Versuche, deine eigenen Denkprozesse zu verstehen.
- Diverse Informationsquellen nutzen: Verwende Informationen aus verschiedenen Quellen und Perspektiven, um deine Sichtweise zu erweitern. Dies hilft dabei, Bestätigungsverzerrungen zu vermeiden.
- Fakten überprüfen: Überprüfe Informationen und Fakten sorgfältig, bevor du Schlussfolgerungen ziehst oder Urteile fällst. Verlasse dich nicht ausschließlich auf dein Gedächtnis.
- Kritisch denken: Frage kritisch, warum du eine bestimmte Meinung vertrittst oder eine Entscheidung triffst. Welche Beweise oder Argumente stützen deine Ansichten?
- Empathie entwickeln: Versuche, dich in die Lage anderer Menschen zu versetzen. Dies kann helfen, Ingroup Bias zu reduzieren und ein besseres Verständnis für verschiedene Perspektiven zu entwickeln.
- Feedback suchen: Bitte Freunde, Kollegen oder Vertrauenspersonen um Feedback zu deinen Entscheidungen und Überzeugungen. Externe Perspektiven können hilfreich sein, um Bias zu erkennen.
- Selbstkritik üben: Sei bereit, deine eigenen Fehler und Vorurteile anzuerkennen und daraus zu lernen. Niemand ist vor Bias gefeit, aber die Bereitschaft zur Selbstverbesserung ist entscheidend.
- Training und Schulung: In einigen Fällen kann eine formelle Schulung zu Voreingenommenheit und kritischem Denken hilfreich sein. Es gibt Kurse und Workshops, die speziell darauf ausgerichtet sind, Vorurteile zu erkennen und zu überwinden.
- Bewusstsein in Organisationen fördern: In Unternehmen und Organisationen ist es wichtig, eine Kultur des Bewusstseins für Bias zu schaffen. Schulungen, Richtlinien und Maßnahmen zur Förderung der Vielfalt können hierbei unterstützen.
I really like your writing, this is very useful for me, thank you bro pay4d website
Thank you for your feedback and I hope my latest post can inspire you too. Gabriele