Fake News erfordert weder die Absicht zu täuschen noch eine Haltung des "Bullshits". Der Begriff "Fake News-Umgebung" umfasst dabei nicht nur Fehlinformationen (falsche Informationen), sondern auch Desinformation (Fehlinformationen mit dem gezielten Ziel, zu täuschen), und ebenso das Fehlen von Informationen (die Nichtaufnahme von Informationen, die für das Verständnis von Fakten und die Entscheidungsfindung erforderlich wären). Das Fehlen von Informationen kann durch Nachlässigkeit, Unfähigkeit oder den Wunsch, zu täuschen, bedingt sein. Diese Unvollständigkeit im Informationsfluss kann nicht nur das individuelle Verständnis beeinträchtigen, sondern auch das kollektive Vertrauen in die Medien und politische Institutionen gefährden.

Das Konzept der „vernünftigen Erwartung“ spielt eine zentrale Rolle, wenn wir Fake News verstehen wollen. Diese Erwartung kann sowohl prädiktiv als auch normativ gefasst werden. Nach der prädiktiven Auffassung hängt die Frage, ob ein Ereignis oder eine Handlung zu erwarten ist, von der Analyse vergangener Ereignisse und deren Ursachen ab. Wird dieses Konzept jedoch normativ verstanden, stellt sich die Frage, was in einer gegebenen Situation vernünftig zu erwarten wäre, unter Berücksichtigung von Normen und nicht entschuldigenden Bedingungen. In einem Land, in dem die Bevölkerung sich daran gewöhnt hat, falsche oder irreführende Nachrichten zu konsumieren, gibt es keine Erwartungen, dass sich die epistemische Qualität der Nachrichten in naher Zukunft verbessern wird. Diese Haltung, so berechtigt sie erscheinen mag, sollte jedoch nicht dazu führen, dass man den Eindruck gewinnt, dass diese Gesellschaft keine Fake News-Umgebung durchlebt. Eine vernünftige Erwartung im Rahmen von Fake News muss daher normativ gefasst werden, unabhängig davon, wie stark die Tendenz zu Fehlinformationen in der Gesellschaft bereits verankert ist.

Demokratien benötigen unabhängige, faktenbasierte Nachrichten, um eine Vielzahl von Stimmen zu repräsentieren, die Mächtigen zu überwachen und die Bürger einer Gesellschaft zu informieren. Fake News untergräbt diese demokratischen Prinzipien, da sie den Bürgern die Fähigkeit nimmt, fundierte Entscheidungen bei Wahlen oder Referenden zu treffen und zugleich die öffentlichen Amtsträger daran hindert, im Interesse der Öffentlichkeit zu handeln. Im Gegensatz zu echten Nachrichten dient Fake News nicht als Mechanismus für demokratische Rechenschaftspflicht und trägt nicht zur Sozialisation der Bürger in demokratische Werte bei. Das Problem wird verstärkt durch die Tatsache, dass Fake News oft schneller verbreitet wird als wahrheitsgetreue Informationen. Soziale Medien bieten eine Plattform, auf der Nachrichten nicht selten ohne gründliche Prüfung ihrer Quellen geteilt werden, was die Verbreitung von Fake News begünstigt. Der Reiz der Neuheit spielt dabei eine wichtige Rolle: Fake News ist oft sensationeller und daher eher bereit, geteilt zu werden. Doch das Fehlen klarer Quellennachweise erschwert es den Konsumenten, die Richtigkeit der Informationen zu bewerten.

Ein weiteres Problem besteht darin, dass falsche Informationen, selbst nachdem sie widerlegt wurden, oft weiterhin die Einstellungen und Überzeugungen der Menschen beeinflussen. Dieser psychologische Effekt, bekannt als „continued influence effect“, zeigt, dass falsche Behauptungen auch nach ihrer Widerlegung weiter wirken. Ein harmloses Beispiel ist der weit verbreitete, jedoch falsche Glaube, dass die Große Mauer von China vom Mond aus sichtbar ist. Solche Informationen sind tief in das Gedächtnis eingedrungen und lassen sich nicht einfach löschen, selbst wenn sie oft widerlegt wurden. Dies zeigt, dass Fehlinformationen schwer zu beseitigen sind, sobald sie einmal im Glaubenssystem eines Menschen verankert sind. Besonders paradox ist, dass komplexe Widerlegungsversuche oft die langfristige Persistenz dieser falschen Informationen sogar verstärken können.

Eine der effektivsten Methoden, sich vor Fake News zu schützen, ist die Entscheidung, solche Informationen gar nicht erst zu konsumieren. Dies kann durch die bewusste Abstinenz von zweifelhaften Nachrichtenquellen erreicht werden. Allerdings ist es nicht immer einfach, von fragwürdigen Nachrichten abzusehen, sobald man von deren Existenz weiß. Motivierte Ignoranz, also das absichtliche Nicht-Wissen-Wollen von bestimmten Informationen, bietet hier eine interessante Perspektive. In der epistemologischen Debatte gibt es unterschiedliche Auffassungen darüber, was „Ignoranz“ genau ist, doch der Begriff der motivierten Ignoranz geht davon aus, dass jemand absichtlich auf Wissen verzichtet, um einem bestimmten Ziel zu dienen. Dies wird in verschiedenen Disziplinen wie der Rechtswissenschaft oder der feministischen Epistemologie behandelt.

In einem demokratischen Kontext erfordert motivierte Ignoranz, dass Menschen in einer Umgebung leben, in der sie sich bewusst von bestimmten Quellen und Inhalten fernhalten, um sich vor der Verbreitung von Fehlinformationen zu schützen. Diese Ignoranz ist nicht einfach ein Mangel an Wissen, sondern eine gezielte Entscheidung, sich nicht mit potenziell schädlichen oder manipulativen Informationen auseinanderzusetzen. In der politischen Diskussion könnte man dies als eine Art Selbstschutzstrategie betrachten, um sich vor den negativen Auswirkungen von Fake News zu bewahren.

Neben der Bewusstseinsbildung für Fehlinformationen und der Förderung von Medienkompetenz ist es daher entscheidend, eine Kultur der kritischen Reflexion und des verantwortungsvollen Konsums von Informationen zu entwickeln. Menschen müssen lernen, den Ursprung von Nachrichten zu hinterfragen und die Glaubwürdigkeit von Quellen zu überprüfen. In einer Welt, in der Information eine der wertvollsten Währungen ist, kann die Fähigkeit, sich gegen manipulative Narrative zu wehren, den Unterschied zwischen einer funktionierenden und einer destabilisierten Demokratie ausmachen.

Was ist epistemische Obstruktion und wie beeinflusst sie den Wissensaustausch?

Epistemische Obstruktion beschreibt einen Zustand, in dem der Wissensaustausch durch die Art und Weise, wie Informationen präsentiert oder vermittelt werden, behindert wird. Im Gegensatz zur epistemischen Klarheit, die auf eine präzise und verständliche Übermittlung von Wissen abzielt, steht die epistemische Obstruktion für eine Praxis, die in technischer oder komplexer Sprache ausgedrückt wird, ohne dabei auf die Klarheit oder das Verständnis des Publikums Rücksicht zu nehmen. Experten, die sich in ihrer Ausdrucksweise zu sehr auf Fachjargon stützen, ohne diesen zu erläutern oder für das Publikum zugänglich zu machen, tragen zur epistemischen Obstruktion bei.

Ein Problem entsteht, wenn Wissen zu schnell vorangetrieben wird, wobei es durch die Verwendung von Fachterminologie zwar auf den ersten Blick an Tiefe gewinnt, aber die Zuhörer oder Leser dadurch eher verwirrt als erleuchtet werden. In solch einem Fall wird nicht nur das Verständnis des Wissens behindert, sondern auch die wissenschaftliche Debatte selbst zurückgeworfen. Der Grundgedanke hinter der epistemischen Obstruktion ist nicht unbedingt böswillig, sondern vielmehr das Resultat einer mangelnden Achtsamkeit gegenüber den Bedürfnissen der Wissensvermittlungsprozesse. Der Obstruktionist, der sich nicht um die Klarheit seiner Worte bemüht, verursacht Verwirrung ohne ein vergleichbares epistemisches Gut.

In vielen Fällen kann epistemische Obstruktion nicht auf absichtliche Täuschung zurückgeführt werden, sondern vielmehr auf eine Vernachlässigung der Verantwortung, Wissen verständlich zu vermitteln. Derjenige, der komplexe Sprache verwendet, geht davon aus, dass alle Beteiligten in der Lage sind, diese zu verstehen. Doch was Experten oft übersehen, ist, dass ihre Zielgruppe nicht unbedingt mit der Fachsprache vertraut ist. Das Resultat ist ein Missverständnis oder eine Verzerrung der eigentlichen Inhalte.

Die klare Unterscheidung zwischen epistemischer Obstruktion und epistemischer Insensitivität ist wichtig. Während epistemische Insensitivität die mangelnde Sensibilität gegenüber den Bedürfnissen und Perspektiven anderer beschreibt, so wie sie bei einem Experten auftreten kann, der seine Sprache nicht anpasst, bezieht sich epistemische Obstruktion auf die Tendenz, technische Sprache ohne Rücksicht auf ihre Verständlichkeit zu verwenden. Beide Phänomene können die Kommunikation erschweren und das Vertrauen in den Wissensaustausch untergraben.

Es gibt jedoch eine Grenze, bei der die Verwendung von technischer Sprache gerechtfertigt ist. Wenn eine solche Sprache einen bedeutenden epistemischen Nutzen bietet und dazu beiträgt, das Verständnis zu vertiefen, sollte sie nicht grundsätzlich vermieden werden. Dies ist insbesondere in spezialisierten wissenschaftlichen Disziplinen der Fall, wo präzise Begriffe und Konzepte unabdingbar sind, um den Wissensstand weiterzuentwickeln. Doch auch hier ist es wichtig, dass Experten sich der Verantwortung bewusst sind, ihre Begriffe zu erklären und in einem Kontext zu präsentieren, der auch für weniger erfahrene Leser zugänglich ist.

Ein besonders perfides Merkmal der epistemischen Obstruktion ist die Tendenz, „aneinander vorbeizureden“. Dies geschieht häufig, wenn Experten eine Diskussion oder ein Argument vorantreiben, ohne zu beachten, wie ihre Aussagen bei anderen, weniger spezialisierten Personen aufgenommen werden. Ein solches Missverständnis kann leicht dazu führen, dass die Diskussion in Sackgassen verläuft, ohne dass der Wissensaustausch wirklich vorangetrieben wird. In solchen Fällen spricht man von einem „Verpassen der Pointe“ – es wird so viel Wert auf Fachlichkeit gelegt, dass die eigentliche Zielgruppe aus den Augen verloren wird.

Beispielsweise könnte ein Professor in einem Fachaufsatz eine statistische Aussage treffen, die für Experten auf dem Gebiet klar und nachvollziehbar ist, aber bei einem breiteren Publikum Verwirrung auslösen könnte. Ein solcher Mangel an Rücksicht auf die Zielgruppe führt zu Missverständnissen, die das Vertrauen in die wissenschaftliche Autorität weiter schwächen. Kritiker könnten argumentieren, dass die Experten absichtlich eine Barriere zwischen sich und dem Publikum aufbauen und dass dies das Gefühl verstärken kann, dass die Wissenselite sich von den realen Anliegen der Gesellschaft entfernt.

Es ist wichtig, auch in komplexen und spezialisierten Diskussionen darauf zu achten, wie Sprache wirkt und wie sie das Verständnis beeinflussen kann. Wer in seiner Arbeit auf Expertenniveau kommuniziert, sollte sich stets der Tatsache bewusst sein, dass nicht jeder über das gleiche Maß an Vorwissen verfügt. Wenn technischer Jargon unvermeidlich ist, muss er so präsentiert werden, dass er für ein breites Publikum verständlich bleibt.

In den letzten Jahren hat sich diese Problematik zunehmend in sozialen und politischen Diskursen bemerkbar gemacht. Insbesondere in öffentlichen Debatten über Themen wie Rassismus, soziale Ungleichheit oder technologische Entwicklung wird oft auf Fachbegriffe und spezielle Studien verwiesen, die ohne angemessene Erläuterung zu Missverständnissen führen können. So wie Experten häufig dazu neigen, ihre komplexen Theorien auf eine Art und Weise zu präsentieren, die nicht immer zugänglich ist, können sie durch diese Art der Kommunikation das Vertrauen der breiten Öffentlichkeit in die Wissenschaft und in die Intellektuellen verlieren.

In solchen Fällen können scheinbar unkritische Äußerungen über die Ungleichheit bestimmter gesellschaftlicher Gruppen oder die Auswirkungen politischer Entscheidungen als oberflächlich oder sogar elitär wahrgenommen werden. Dies kann dazu führen, dass der Diskurs immer mehr polarisiert wird, da die betroffenen Gruppen sich zunehmend ausgeschlossen und missverstanden fühlen.

Insgesamt ist es entscheidend, dass die Vertreter von Wissenschaft und Fachgebieten sich ihrer Verantwortung bewusst sind, ihre Erkenntnisse so zu kommunizieren, dass sie für alle zugänglich und nachvollziehbar sind. Die Art und Weise, wie Wissen vermittelt wird, hat ebenso viel Einfluss auf den Wissensaustausch wie das Wissen selbst. Es ist daher notwendig, dass Experten sowohl in ihrer Fachkenntnis als auch in ihrer Kommunikationsweise klar und verantwortungsbewusst agieren. Nur so kann gewährleistet werden, dass Wissen nicht nur für eine kleine Elite zugänglich bleibt, sondern einen echten Beitrag zu einer breiten und fundierten gesellschaftlichen Diskussion leisten kann.

Wie epistemische Hindernisse Missverständnisse und Fehldeutungen verursachen können

Es gibt tiefgreifende Unterschiede in der Art und Weise, wie Experten und Nicht-Experten auf bestimmte Begriffe und Konzepte reagieren, insbesondere in moralisch aufgeladenen Diskussionen. Ein Beispiel hierfür ist der Begriff „struktureller Rassismus“. Während er in akademischen Kreisen und unter Experten eine klare Bedeutung hat, die sich auf institutionelle, oft unbewusste Diskriminierung bezieht, verstehen viele Nicht-Experten darunter eine explizite, absichtliche Diskriminierung, die auf rassistischen Vorurteilen basiert. Dies führt häufig zu Missverständnissen und Fehldeutungen, die zu unnötigen Konflikten führen können.

Ein solcher Fall tritt ein, wenn sich konservative Personen in einer Diskussion über gesellschaftliche Themen auf moralische Bewertungen stützen, anstatt epistemische Fragen zu klären. In einer Situation, in der ein Tweet oder eine öffentliche Äußerung gemacht wird, verschiebt sich der Fokus der Diskussion von einer rein sachlichen, epistemischen Ebene hin zu einer Verteidigung von Werten und moralischen Überzeugungen. Dies ist nicht immer eine Reaktion auf eine feindliche oder absichtlich irreführende Aussage, sondern kann ein Resultat des Begriffs- und Bedeutungswandels innerhalb der Diskussion sein.

Der entscheidende Punkt liegt hier in der epistemischen Verwirrung, die durch missverständliche oder vage Formulierungen entsteht. Experten und Akademiker benutzen Begriffe oft in einem engen, präzisen Sinne, während Nicht-Experten sich auf ihre alltägliche Bedeutung stützen, was zu Fehldeutungen führen kann. Diese unterschiedlichen Interpretationen von Begriffen wie „Rassismus“ oder „safe spaces“ tragen zu einem wachsenden Graben zwischen akademischen Eliten und breiteren Bevölkerungsschichten bei. Das Missverständnis ist häufig nicht absichtlich und entspringt vielmehr einem Mangel an Wissen oder an Erfahrungen, die notwendig sind, um bestimmte akademische Konzepte richtig zu verstehen.

Ein weiteres Beispiel für epistemische Barrieren ist der Begriff „safe space“, der in universitären Kreisen weit verbreitet ist, aber außerhalb dieses Rahmens oft missverstanden wird. Der Begriff wird in vielen akademischen Kontexten verwendet, um Räume zu beschreiben, in denen Menschen offen und ohne Angst vor Diskriminierung oder Ablehnung schwierige Themen ansprechen können. Für jemanden, der mit diesem Begriff nicht vertraut ist, wie etwa ein Student ohne formale Ausbildung, kann „safe space“ jedoch als unberechtigter Rückzugsort oder als Versuch verstanden werden, eine „Zensur“ von Meinungen zu etablieren, was zu stark polarisierten Reaktionen führen kann.

Die Problematik dieser Missverständnisse ist, dass die eigentliche Bedeutung von Begriffen nicht immer klar kommuniziert wird. Häufig setzen Akademiker und Experten ein hohes Maß an vorausgesetztem Wissen voraus und gehen davon aus, dass ihre Zuhörer oder Leser dieselbe Begrifflichkeit teilen. In der breiten Bevölkerung jedoch, insbesondere in ländlichen und politisch konservativen Gebieten, können diese Begriffe ganz andere, weniger differenzierte Bedeutungen haben. Dies führt zu einer Situation, in der die Öffentlichkeit nicht wirklich mit den Experten diskutiert, sondern aneinander vorbeiredet.

Epistemische Hindernisse wie diese entstehen nicht nur durch den Gebrauch von Fachbegriffen, sondern auch durch die Struktur von Institutionen und Gesellschaften, die das Wissen und die Perspektiven von Nicht-Experten nicht ausreichend berücksichtigen. Eine mögliche Lösung für diese Kluft liegt in der klaren und präzisen Kommunikation, bei der die Begriffe und Konzepte so definiert werden, dass alle Beteiligten die gleiche Grundlage für ihre Diskussionen haben. Dies gilt besonders in öffentlichen Debatten zu komplexen sozialen und politischen Themen, bei denen der Einsatz präziser Definitionen nicht nur zur Klarheit beiträgt, sondern auch zur Vermeidung unnötiger Konflikte und Missverständnisse.

Außerdem zeigt sich in vielen dieser Diskussionen eine Tendenz zur Feindseligkeit oder zum Ausschluss von Meinungen, die nicht mit den vorherrschenden akademischen oder moralischen Überzeugungen übereinstimmen. Dies führt zu einem Phänomen, das als „epistemische Exkommunikation“ bezeichnet werden könnte, bei dem abweichende Meinungen nicht als legitime Diskussionsbeiträge angesehen werden, sondern als Ausdruck von Unwissenheit oder sogar Vorurteilen verurteilt werden. Eine solche Haltung trägt nicht nur zur Polarisierung bei, sondern verhindert auch einen produktiven Dialog, der auf der Auseinandersetzung mit verschiedenen Perspektiven basiert.

Es ist wichtig zu erkennen, dass diese epistemischen Barrieren nicht immer absichtlich geschaffen werden, sondern oft aus Unwissenheit oder mangelndem Zugang zu bestimmten Wissensquellen resultieren. Daher könnte ein wichtiger Schritt darin bestehen, in öffentlichen Diskussionen und in der akademischen Lehre eine inklusivere Sprache zu verwenden, die es den Menschen ermöglicht, auf einer gemeinsamen Basis zu verstehen und zu argumentieren. Insbesondere in einer Zeit, in der gesellschaftliche Probleme wie Rassismus, soziale Ungleichheit und Diskriminierung nach wie vor eine große Rolle spielen, ist es von entscheidender Bedeutung, dass wir uns bemühen, diese Themen nicht nur zu verstehen, sondern auch richtig zu kommunizieren, um Missverständnisse und Konflikte zu vermeiden.

Wie unsere Überzeugungen durch Fehlinformationen beständig beeinflusst werden: Die Schwierigkeit, falsche Überzeugungen zu korrigieren

Es ist eine weit verbreitete Annahme, dass Fehlinformationen, sobald sie korrigiert werden, ihren Einfluss verlieren. Die Realität ist jedoch viel komplexer, besonders wenn es um die Revision von falschen Überzeugungen geht, die tief in unserem Denken verankert sind. Zahlreiche psychologische Studien belegen, wie schwierig es ist, falsche Überzeugungen zu ändern, selbst wenn die Korrektur fast unmittelbar nach der Fehlinformation präsentiert wird.

Ein bemerkenswertes Experiment von Johnson und Seifert (1994) demonstrierte, wie stark Fehlinformationen in unserem Gedächtnis verankert bleiben. In dieser Studie wurden Teilnehmer einer Reihe von Nachrichtenberichten über einen Brand in einem Lagerhaus ausgesetzt, wobei ein Bericht angab, dass sich in einem Schrank brennbare Farbdosen und Druckgaszylinder befanden. Kurz danach wurde diese Information korrigiert, indem berichtet wurde, dass der Schrank tatsächlich leer war. Obwohl die Korrektur unmittelbar folgte, gaben viele Teilnehmer weiterhin die fehlerhafte Information in ihren Erklärungen des Brandes an. Dies zeigt, wie schwer es fällt, Fehlinformationen zu revidieren, insbesondere wenn sie zur Konstruktion einer kausalen Erklärung verwendet werden. Fehlinformationen, die in einem Kontext präsentiert werden, der ihre Nutzung zur Erklärung eines Ereignisses fördert, sind besonders resistent gegenüber Korrekturen.

Weitere Studien, wie die von Schwarz et al. (2007), belegen, dass die bloße Präsentation eines Mythos und dessen Korrektur als Faktum nicht nur wenig zur Aufklärung beiträgt, sondern sogar das Gegenteil bewirken kann. Teilnehmer, die mit einem "Mythos/Faktum"-Flyer konfrontiert wurden, erinnerten sich nach 30 Minuten eher an den Mythos als an die Korrektur. Dies liegt an einem kognitiven Mechanismus namens Familiaritätsheuristik, nach dem Informationen, die uns vertraut erscheinen, als wahrer angesehen werden, selbst wenn sie explizit als Mythen gekennzeichnet sind.

Ein weiteres Beispiel für die Schwierigkeit, falsche Überzeugungen zu revidieren, ist der sogenannte „Backfire-Effekt“. Neil Levy (2017) beschreibt dieses Phänomen, bei dem Menschen, die mit Informationen konfrontiert werden, die ihren politischen Überzeugungen widersprechen, oft noch stärker an ihren ursprünglichen Überzeugungen festhalten. Dies wurde in mehreren Studien nachgewiesen, etwa bei der Diskussion über Massenvernichtungswaffen im Irak oder die Auswirkungen des Klimawandels auf die Gesundheit. Der Backfire-Effekt erklärt sich durch die Art und Weise, wie wir neue Informationen bewerten: Quellen, die im Widerspruch zu unseren bestehenden Überzeugungen stehen, werden als unzuverlässig wahrgenommen. Dieser Effekt führt dazu, dass wir nicht nur falsche Informationen weiterhin glauben, sondern auch unser Vertrauen in die Quellen, die uns korrigieren könnten, untergraben wird.

Interessanterweise zeigt der Backfire-Effekt keine Rücksicht auf Bildungsniveau. In einer Untersuchung von Hamilton (2011) stellte sich sogar heraus, dass höher gebildete Menschen stärker auf den Backfire-Effekt reagierten als weniger gebildete. Dies legt nahe, dass Bildung nicht notwendigerweise ein Schutzschild gegen die Verfestigung falscher Überzeugungen ist, sondern möglicherweise sogar die Art und Weise verstärken kann, wie wir uns in Bezug auf unsere bestehenden Meinungen verfestigen.

Besondere Risiken entstehen zudem durch soziale Medien. Die Art und Weise, wie Informationen dort präsentiert werden, verstärkt den Einfluss von Fehlinformationen. Schula et al. (2008) zeigen, dass das Erzeugen von Vertrauen in eine Person oder Quelle zu einer schlechteren Leistungsfähigkeit bei der kritischen Bewertung von Informationen führt. In sozialen Medien wird oft Vertrauen durch beiläufige, persönliche Kontexte hergestellt, etwa durch Profile mit vertrauenswürdigen, sympathischen Bildern oder durch das Teilen von Artikeln, die scheinbar von vertrauenswürdigen Quellen stammen. Dieser Kontext lässt uns weniger kritisch über die Informationen nachdenken, die wir konsumieren, was Fehlinformationen zu einem noch größeren Risiko macht. Eine weitere Studie von Antochi et al. (2019) verdeutlicht, dass Menschen, die in einem sozialen, zivilen Kontext Diskussionen geführt haben, eher bereit sind, anderen zu vertrauen, was sie besonders anfällig für Fehlinformationen macht, wenn diese in einem ähnlichen, vertrauensvollen Umfeld präsentiert werden.

In sozialen Netzwerken können Fehlinformationen besonders weit verbreitet werden, da der soziale Kontext die Wahrscheinlichkeit erhöht, dass wir dem Gehörten oder Gelesenen vertrauen. Dies ist besonders problematisch, wenn die Information von einer Person geteilt wird, die wir kennen und deren Ansichten wir schätzen, was das Risiko erhöht, die Fehlinformation zu akzeptieren und weiterzuverbreiten.

Es ist entscheidend, sich der Mechanismen bewusst zu sein, die unsere Urteilsfähigkeit beeinflussen. Die Familiaritätsheuristik und der Backfire-Effekt verdeutlichen, dass der bloße Kontakt mit Fehlinformationen, selbst wenn sie als solche gekennzeichnet sind, unsere Überzeugungen verstärken kann. Darüber hinaus zeigt die Forschung, dass soziale Medien die Verbreitung und Akzeptanz von Fehlinformationen verstärken, da sie Vertrauen in Quellen herstellen und uns davon abhalten, kritisch zu hinterfragen. Der Umgang mit Fehlinformationen erfordert daher nicht nur die Fähigkeit zur Korrektur falscher Überzeugungen, sondern auch eine ständige Reflexion über die Quellen und den Kontext, in dem Informationen präsentiert werden.

Die Bedeutung der epistemischen Vertrauenswürdigkeit im Kontext von Social Media und Re-Posting

In der heutigen digitalen Ära sind soziale Netzwerke eine wichtige Plattform für die Verbreitung von Informationen. Während diese Plattformen oft als Instrumente der Meinungsbildung und des Austauschs dienen, bergen sie auch erhebliche epistemische Risiken. Ein zentraler Aspekt dabei ist die Frage, wie wir mit der Verbreitung von Inhalten umgehen, die möglicherweise irreführend oder sogar falsch sind. Das scheinbar harmlose Teilen von Artikeln aus zweifelhaften Quellen kann nicht nur unsere eigene Wahrnehmung, sondern auch das epistemische Umfeld unserer Gemeinschaft gefährden.

Es ist weit verbreitet, dass wir auf sozialen Medien in der Regel keine direkte Bestätigung für die Wahrheit von Informationen suchen, die wir teilen oder mit denen wir interagieren. Oft reagieren wir mit einem bloßen „so tun als ob“ – wir handeln, als ob wir die geposteten Inhalte glauben, ohne sie in Frage zu stellen. Besonders bei engen Freunden oder Familienmitgliedern kann es sozialen Druck geben, diese Informationen nicht öffentlich zu hinterfragen, was als respektlos empfunden werden könnte. Dies ist jedoch problematisch, da eine solche Haltung dazu führen kann, dass wir tatsächlich beginnen, falsche oder irreführende Informationen zu glauben. Dies wurde in kognitiven Dissonanz-Experimenten nachgewiesen, in denen festgestellt wurde, dass Menschen, die sich in einer Situation gezwungen sehen, eine Position zu verteidigen, die ihren eigenen Interessen widerspricht, später diese Position als wahr annehmen (Cooper, 2007). Die Gefahr besteht also darin, dass wir durch das bloße Weiterverbreiten von Informationen aus unzuverlässigen Quellen nicht nur andere in die Irre führen, sondern uns selbst ebenfalls in einem falschen Vertrauen verfangen.

Jedoch gibt es auch eine andere Seite des Re-Postings: Es kann eine positive Rolle spielen, insbesondere wenn es dazu beiträgt, sogenannte „Filterblasen“ oder „Echo-Kammern“ zu durchbrechen. Diese Phänomene entstehen durch die Algorithmen sozialer Netzwerke, die den Nutzern vor allem Inhalte zeigen, die deren bisherigen Klickverhalten entsprechen. Infolgedessen sind viele Nutzer nur mit einem eingeschränkten, oft einseitigen Informationsstrom konfrontiert. Eine Studie von Fletcher und Nielsen (2017) zeigte jedoch, dass Menschen, die Nachrichten über soziale Netzwerke konsumieren, in der Regel einer breiteren Vielfalt an Themen und Perspektiven ausgesetzt sind als diejenigen, die auf traditionellen Nachrichtenquellen beruhen. Dies liegt an den sogenannten „schwachen Verbindungen“, die wir zu Menschen auf sozialen Medien haben – Kollegen, entfernte Verwandte oder Bekannte, die politisch oder ideologisch anders eingestellt sein können als enge Freunde. Diese schwachen Verbindungen haben das Potenzial, uns mit einer breiteren Palette an Informationen zu versorgen, die wir ohne diese sozialen Netzwerke nicht erreicht hätten.

Dennoch bleibt auch hier das Risiko bestehen, dass wir über diese Verbindungen auf Informationen aus zweifelhaften Quellen stoßen, die uns in die Irre führen können. Diese Gefahr macht die Verantwortung desjenigen, der Informationen teilt, umso wichtiger. Die epistemisch vertrauenswürdige Person muss sich der Risiken bewusst sein, die mit dem Re-Posting verbunden sind. Sie sollte sicherstellen, dass sie nicht einfach Artikel verbreitet, die falsche oder irreführende Inhalte enthalten, auch wenn sie persönlich überzeugt ist, dass der Inhalt wahr ist. Das bloße Teilen von Inhalten aus unzuverlässigen Quellen kann dazu führen, dass andere Leser mit weiteren falschen Informationen in Kontakt kommen oder Vertrauen in eine Quelle aufbauen, die sich später als unzuverlässig herausstellt.

Die Verantwortung geht jedoch über das bloße Vermeiden von fehlerhaften Inhalten hinaus. Die epistemisch vertrauenswürdige Person sollte auch die Möglichkeit erkennen, das Vertrauen in alternative, aber glaubwürdige Quellen zu fördern. Das Teilen von Artikeln aus vertrauenswürdigen, aber möglicherweise übersehenen Quellen kann helfen, die Auswirkungen von kulturellen Vorurteilen und Testimonial-Unrecht zu mildern. Wenn bestimmte Quellen aufgrund von Vorurteilen systematisch übersehen oder entwertet werden, kann das Re-Posting dieser Quellen helfen, ihre Bedeutung zu betonen und die Aufmerksamkeit auf ungehörte, aber wertvolle Stimmen zu lenken.

Wichtig zu berücksichtigen ist, dass die epistemische Vertrauenswürdigkeit nicht nur das Vermeiden von Risiken umfasst, sondern auch die bewusste Förderung von Vielfalt und kritischer Reflexion innerhalb der Gemeinschaft. Wer sich als epistemisch vertrauenswürdig erweist, sollte die Auswirkungen seines Handelns auf die gesamte Informationsgemeinschaft bedenken. Eine bewusste Signalgebung darüber, wie ein Artikel gelesen werden sollte, kann dazu beitragen, Missverständnisse zu vermeiden und die Gemeinschaft vor einer potenziellen Verzerrung ihrer Wahrnehmung zu schützen.

Zusätzlich zur Verantwortung für die Inhalte selbst spielt auch der Kontext eine wichtige Rolle. Die Person, die Inhalte teilt, muss sich bewusst sein, wie ihre Handlung in den sozialen Netzwerken wahrgenommen wird und welche Auswirkungen sie auf die breitere Öffentlichkeit haben kann. Gerade in Zeiten von „Kontextkollaps“, wo Inhalte ohne den ursprünglichen Zusammenhang verbreitet werden, ist es entscheidend, klar zu kommunizieren, welche Absichten hinter dem Teilen stehen.

Die epistemisch vertrauenswürdige Person wird immer abwägen, wie ihre Re-Postings sowohl andere informieren als auch den richtigen Rahmen für das Vertrauen bieten können. Sie wird mit dem Bewusstsein handeln, dass ihr Verhalten nicht nur die individuelle Wahrnehmung beeinflusst, sondern auch Auswirkungen auf die kollektive Informationslandschaft hat. Nur durch diese Verantwortung können wir dazu beitragen, eine gesunde, vielfältige und vertrauenswürdige epistemische Gemeinschaft zu schaffen.