Die Frage, ob es die Verantwortung von Nicht-Experten ist, die Fachsprache zu erlernen, führt zu einem bemerkenswerten Einwand (Einwand 2): Sollte die Verantwortung nicht bei den Experten liegen, ihre Sprache klar und verständlich zu machen? Eine Antwort, die mit „ja“ antwortet, vermittelt ein elitäreres Bild und setzt eine extrem hohe epistemische Last auf die Nicht-Experten. Diese wissen ja oft nicht einmal, was sie nicht wissen. In den meisten Fällen gehen Nicht-Experten davon aus, dass Akademiker die Worte in ihrem gewohnten Sinne benutzen. Und warum sollten sie das auch nicht tun? Ohne Anzeichen für eine Divergenz ist es vernünftig, zunächst mit der Annahme zu arbeiten, dass die Worte in ihrer üblichen Bedeutung verwendet werden. Die Alternative wäre, jedes Mal zu überprüfen, ob die Begriffe technisch verwendet werden – eine ständige und mühsame Bestätigung, die zu der Frage führt, ob wissenschaftliche Arbeiten in einem anderen epistemischen Rahmen verstanden werden müssen und daher einen Ausgangspunkt der technischen Sprache verlangen. Dies jedoch ist wenig praktikabel. Sogar hochgradig technische Arbeiten benutzen die meisten Begriffe in ihrer gewohnten Bedeutung. Es wäre seltsam anzunehmen, dass es immer eine Divergenz zwischen den Wörtern in wissenschaftlichen Arbeiten und denen in der alltäglichen Kommunikation gibt. Diese Annahme würde das Lesen von wissenschaftlichen Texten so zeitaufwendig machen, dass es nahezu unmöglich wäre. Wenn jedes Papier die Fähigkeit zur Übersetzung eines jeden Wortes erfordern würde, als ob es eine neue Sprache wäre, würden nur sehr wenige sich noch mit wissenschaftlichen Arbeiten beschäftigen. Von Nicht-Experten zu verlangen, immer die Fachsprache zu erlernen, ist schlichtweg unvernünftig.
Ein weiterer Einwand (Einwand 3) könnte lauten: Auch wenn technische Sprache aus dem akademischen Bereich in den öffentlichen Raum getragen wird, liegt die Verantwortung nicht bei den Experten. Es sei zumindest nicht ihre Verantwortung, wenn die Veröffentlichung ohne ihre Zustimmung oder Empfehlung erfolgt. Es scheint jedoch gerechtfertigt, dass Wissenschaftler, die direkt mit der Öffentlichkeit sprechen, eine größere Verantwortung für die Klarheit ihrer Arbeit tragen. Sobald wissenschaftliche Erkenntnisse die wissenschaftliche Sphäre verlassen und in die Öffentlichkeit dringen, sind epistemische Konsequenzen unvermeidlich – ob beabsichtigt oder nicht. Experten, die sich der Öffentlichkeit zuwenden, sind sich der möglichen Auswirkungen ihrer Arbeit auf die breite Masse durchaus bewusst. Die Zustimmung zur Verbreitung ihrer Arbeit ist ein anderes Thema. Allein die Tatsache, dass eine Veröffentlichung öffentlich zugänglich sein könnte, ist ein hinreichender Grund, Anstrengungen zur Klarstellung zu unternehmen. Epistemisch tugendhafte Experten, die technische Begriffe verwenden, sollten diese nur dann benutzen, wenn der epistemische Nutzen die Gefahr von Missverständnissen überwiegt. Wenn die Verwendung technischer Begriffe zu Missverständnissen führt und nur einen marginalen wissenschaftlichen Vorteil bringt, spricht die Kosten-Nutzen-Rechnung oft dafür, die technische Sprache zu vermeiden. Wissenschaft findet nicht in einem Vakuum statt, auch wenn wir das manchmal wünschen.
Die Probleme, die durch epistemische Unempfindlichkeit und epistemische Behinderung entstehen, sind besonders gravierend, wenn sie von Experten ausgehen. Diese Missstände verschärfen die politische und soziale Kluft zwischen denjenigen, die sich als Konservative verstehen, und jenen, die von den Konservativen als „Eliten“, „liberale Eliten“, „Experten“, „Progressive“ oder „die Linken“ identifiziert werden. Die Verschärfung dieser Kluft führt zu einem tiefen Misstrauen gegenüber Informationsquellen, die als Teil der „anderen“ politischen Perspektive wahrgenommen werden. In einer extremen Form neigen Partisanen dazu, jede Informationsquelle, die nicht eindeutig zu ihrer politischen Blase gehört, als „Fake News“ oder in irgendeiner anderen Form als unzuverlässig zu betrachten. Gleichzeitig neigen sie dazu, extrem parteiische Quellen, die tatsächlich Fake News verbreiten, als vertrauenswürdig zu erachten. Epistemische Unempfindlichkeit und epistemische Behinderung tragen dazu bei, dass politisch und sozial Entfremdete sich immer stärker auf stark parteiische Nachrichtenquellen stützen. Sie entwickeln nicht nur ein tiefes Misstrauen gegenüber Nachrichtenquellen, die aus der „falschen“ politischen Perspektive stammen, sondern auch ein allgemeines Misstrauen gegenüber Expertentum selbst, da Expertise zunehmend mit der „falschen“ politischen Neigung verbunden wird. Dies führt zu einer weitergehenden Vertrauenskrise in die Wissenschaft, da diese als Teil des „unzuverlässigen“ Mainstreams wahrgenommen wird.
Darüber hinaus entstehen durch epistemische Unempfindlichkeit und epistemische Behinderung hohe Opportunitätskosten. Wichtige Chancen zur Weitergabe von wertvollem Wissen, das zu epistemischen Gütern führen könnte, gehen verloren. Ebenso verpasst man die Gelegenheit, epistemische Fähigkeiten weiterzugeben. In manchen Fällen könnte ein Experte, wenn er sich weniger der Verteidigung seiner eigenen Position widmen würde, einen Nicht-Experten dazu anregen, neue epistemische Fähigkeiten zu erlernen. Doch diejenigen, die Opfer von epistemischer Unempfindlichkeit werden, sind oft zu sehr damit beschäftigt, sich selbst zu verteidigen, um die nötige Aufmerksamkeit für die Aneignung von Fähigkeiten aufzubringen.
Es sei betont, dass diese Beobachtungen nicht bedeuten, dass alle Experten – oder überhaupt die Mehrheit von ihnen – die genannten Mängel aufweisen. Es geht vielmehr darum, dass, wenn diese Mängel in Experten auftreten, die Folgen besonders problematisch sind, vor allem in Bezug auf die politische Spaltung, Missverständnisse und das wachsende Misstrauen. In einer Zeit, in der das Misstrauen gegenüber Experten wächst und Fake News zu einer immer größeren Sorge werden, ist es epistemisch klug, jede Form von Unempfindlichkeit und Behinderung, die das Vertrauen in Experten untergraben könnte, besonders zu beachten.
Wie entstehen epistemische Probleme in Echokammern und warum ist Unabhängigkeit der Meinung entscheidend?
Die Trump-Administration und der Nachrichtensender Fox News bilden ein klassisches Beispiel für eine Echokammer: Konservative Ansichten werden dort nicht nur verstärkt, sondern auch von Trump und seinem Team aufgegriffen und wiederholt. Die Fernseher um Trump herum sind nahezu ausschließlich auf Fox News eingestellt, was eine abgeschlossene Meinungswelt schafft, in der andere Stimmen, etwa von CNN, praktisch nicht präsent sind. Diese geschlossene Systematik erzeugt eine Art kollektive Übereinstimmung, die den Eindruck erweckt, es gebe breite Übereinstimmung, obwohl abweichende Perspektiven komplett ausgeblendet werden.
Der Begriff „Echokammer“ ist dabei keine wertfreie Beschreibung, sondern eine epistemische Kritik. Das zentrale epistemische Problem besteht darin, dass die Meinungen innerhalb einer Echokammer oft nicht unabhängig voneinander sind, diese Abhängigkeit aber von den Beteiligten nicht oder nur unzureichend erkannt wird. Dadurch entsteht eine falsche Wahrnehmung von epistemischer Unterstützung: Wenn sich jemand etwa verschiedene Zeitungen anschaut, die alle denselben Bericht reproduzieren, gewinnt er den Eindruck, es gäbe viele unabhängige Bestätigungen. Dieses Beispiel, das Ludwig Wittgenstein vorgeführt hat, verdeutlicht, wie Täuschung durch Wiederholung zustande kommen kann. Im digitalen Zeitalter zeigt sich dies eindrücklich in sozialen Netzwerken wie Facebook, wo viele Nutzer politische Nachrichten aus ähnlichen Quellen mehrfach teilen. Millennials beispielsweise beziehen zu 61 Prozent ihre politischen Nachrichten über Facebook, was die Wahrscheinlichkeit erhöht, dass sie von Gleichgesinnten umgeben sind, die dieselben Meinungen bestätigen. Hier entsteht ein „virtueller Zeitungskreis“, bei dem scheinbar unabhängige Bestätigungen tatsächlich mehrfach dieselbe Quelle reflektieren.
Zwei Aspekte machen dieses Problem besonders relevant: Erstens die fehlende Unabhängigkeit der Meinungen, und zweitens die mangelnde Bewusstheit über diese Abhängigkeit. Ersteres ist ein bekanntes Thema in der Erkenntnistheorie der Meinungsverschiedenheit. Hier wird weitgehend anerkannt, dass eine rationale Revision der eigenen Überzeugung nur dann erforderlich ist, wenn eine neue, unabhängige Meinung vorliegt. Thomas Kelly etwa argumentiert, dass die bloße Anzahl der Meinungen keine epistemische Relevanz hat, wenn diese voneinander abhängig sind. Adam Elga ergänzt, dass man nur so weit von einer zusätzlichen Außenmeinung beeinflusst werden sollte, wie man sie als unabhängig von bereits berücksichtigten Meinungen ansieht. Unabhängigkeit ist demnach eine Grundvoraussetzung für epistemische Kraft: Mehrfach vorgebrachte Meinungen aus derselben Quelle verstärken nicht den Wahrheitsgehalt.
Dennoch ist die Abhängigkeit der Meinungen nicht so katastrophal, wie oft angenommen. Wenn zum Beispiel alle Mitglieder einer Onlinegruppe denselben Artikel aus einer Zeitung wie The Guardian kommentieren, sind die einzelnen Kommentare zwar epistemisch abhängig, doch kann dennoch eine gewisse Autonomie bestehen. Diese beruht darauf, dass die einzelnen Rezipienten aktiv reflektieren: Sie haben Überzeugungen über die Vertrauenswürdigkeit der Quelle, prüfen eingehende Informationen kritisch auf Gegenbeweise (doxastische oder normative Defeater) und übernehmen Verantwortung für ihre Meinung. Ein Beitrag, der auf einer gemeinsamen Quelle basiert, kann also trotz Abhängigkeit eine individuelle epistemische Leistung sein, wenn der Nutzer die Quelle bewusst wählt und kritisch bewertet.
Dabei spielen verschiedene epistemische Mechanismen eine Rolle. Die Überprüfung der Glaubwürdigkeit hängt oft vom Kontext und der Vertrauenswürdigkeit der Quelle ab: Politische Äußerungen werden anders bewertet als Alltagsbeobachtungen, und Aussagen von Politikern variieren in ihrer Glaubwürdigkeit je nach Person. Zudem können Zweifel an der Zuverlässigkeit einer Quelle oder widersprüchliche Informationen als Defeater wirken, die eine Revision oder zumindest eine kritische Haltung erfordern. Selbst wenn solche Gegenargumente abgelehnt werden, besteht die normative Verpflichtung, sich mit ihnen auseinanderzusetzen.
Insgesamt ist für das Verständnis von Echokammern wichtig, dass epistemische Probleme nicht nur aus dem Fehlen unabhängiger Meinungen entstehen, sondern auch aus der fehlenden Bewusstheit darüber. Die Illusion, von vielen unabhängigen Quellen bestätigt zu werden, kann zu einer epistemischen Überzeugtheit führen, die nicht gerechtfertigt ist. Dabei ist es entscheidend zu begreifen, dass eine aktive und reflektierte Auseinandersetzung mit der Quelle und den Informationen notwendig ist, um epistemische Autonomie zu bewahren. Diese Autonomie verhindert, dass man zu passiven Wiederholern von Meinungen wird, deren epistemische Kraft eigentlich nur von einer einzigen Quelle ausgeht.
Endtext
Wie Bots und Fake News die sozialen Echokammern gefährden
Die Präsenz von Social-Media-Bots stellt ein zunehmend drängendes Problem für die epistemische Integrität unserer digitalen Kommunikationsräume dar. Bots, die von Algorithmen gesteuert werden, besitzen keine Überzeugungen im eigentlichen Sinne und handeln nicht autonom. Sie filtern keine Inhalte durch ein belief-set, bewerten die Zuverlässigkeit von Quellen nicht und können daher nicht als irrational angesehen werden, wenn sie falsche Informationen verbreiten. Sie sind nicht verantwortlich für ihre Aussagen, da sie keine echten Überzeugungen haben, sondern lediglich Inhalte reproduzieren. Für Außenstehende erscheinen diese Bots jedoch genauso wie menschliche Nutzer und tragen so zu einer gefährlichen Täuschung bei.
In sozialen Netzwerken, in denen es darauf ankommt, dass Inhalte von Individuen mit einem gewissen Maß an Autonomie geteilt und reflektiert werden, haben Bots keine solche Autonomie. Die Idee, dass Bots die gleiche Verantwortung für ihre Aussagen tragen könnten wie menschliche Akteure, ist schlichtweg nicht zutreffend. Ihre Aussagen spiegeln keine persönlichen Überzeugungen wider, sondern lediglich eine programmierte Replikation von Informationen. Wenn Bots also in sozialen Echokammern aktiv werden, verstärken sie nicht nur bestimmte Ansichten, sondern erzeugen den Eindruck, dass diese Meinungen von einer realen Person geteilt werden. Dabei wird der Ursprung der Aussagen verschleiert und die Möglichkeit, sie in einem Kontext von Überzeugungen und Argumentationen zu verstehen, wird verloren.
Ein weiterer wichtiger Aspekt ist, dass Bots keine Abhängigkeit von anderen Überzeugungen haben, was eine der klassischen Ursachen für die problematischen Auswirkungen von Echokammern ist. In traditionellen Echokammern wird die Filterung von Informationen durch die Überzeugungen der Teilnehmer verstärkt, und es entsteht eine Verzerrung der Realität aufgrund der begrenzten Perspektiven. Bei Bots jedoch gibt es keine zugrunde liegenden Überzeugungen, die in einer solchen Weise interagieren könnten. Stattdessen verbreiten sie eine Flut von Informationen, die keine tiefergehende Verbindung zu den individuellen Überzeugungen der Nutzer haben. Bots verbreiten beispielsweise auch entgegengesetzte Ansichten, was zu einer Verwirrung führt, die im besten Fall die kritische Auseinandersetzung der Nutzer mit den Informationen erschwert, im schlimmsten Fall aber eine totalitäre Verwirrung erzeugt, die Manipulationen erleichtert.
Insofern verändert die Existenz von Bots die Art und Weise, wie wir die Probleme der Echokammern verstehen. Die traditionelle Diagnose – dass Echokammern epistemische Probleme verursachen, weil die Meinungen innerhalb der geschlossenen Systeme voneinander abhängen und gleichzeitig eine Mangel an Vielfalt existiert – greift hier nicht. Denn Bots verbreiten nicht nur eine eingeschränkte Sichtweise, sondern sie machen die Frage der Abhängigkeit von Überzeugungen irrelevant. Sie sind nicht Teil eines sozialen Austauschs, der auf gemeinsamen Überzeugungen basiert. Ihre „Überzeugungen“ sind reine Produkt von Algorithmen ohne eine eigene Perspektive oder eine Möglichkeit der kritischen Selbstreflexion.
Diese Entwicklung ist kein bloßer Anstieg der Menge von Fehlinformationen, wie Bernard Williams es in seiner Kritik an der digitalen Informationsgesellschaft beschreibt, sondern eine fundamentale Veränderung des epistemischen Rahmens selbst. Williams vergleicht die aktuellen Probleme im Umgang mit Information mit den Herausforderungen des Mittelalters, als die Glaubwürdigkeit von Informationen nur schwer zu überprüfen war. Doch der Unterschied liegt nicht nur in der Quantität der Informationen, sondern in ihrer Herkunft. Wo früher Menschen von fehlerhaften oder manipulativen Quellen beeinflusst wurden, sind es heute oft Bots, die in der digitalen Welt als Quellen von Wissen auftreten, ohne selbst über Wissen zu verfügen.
Dieser Umstand stellt ein neues Problem dar, das die traditionellen Modelle der sozialen Epistemologie herausfordert. In der Theorie des Zeugniswissens – also des Wissens, das auf der Aussage von anderen beruht – wird davon ausgegangen, dass der Sprecher eine Art Garantie für die Wahrheit dessen gibt, was er sagt. Diese Annahme wird jedoch durch das Aufkommen von Bots untergraben. Bots sind keine vertrauenswürdigen Quellen, da sie keine Verantwortung für ihre Aussagen übernehmen und keine Möglichkeit bieten, die Richtigkeit ihrer Informationen zu überprüfen. Dies führt zu einem ernsthaften Problem in der Art und Weise, wie wir die Glaubwürdigkeit von Informationen im digitalen Raum beurteilen.
Es ist ein grundlegendes Missverständnis der sozialen Epistemologie, zu glauben, dass unser Vertrauen in andere nur durch die Filterung von Meinungen und die Abhängigkeit von bestehenden Überzeugungen problematisch wird. Die eigentliche Herausforderung besteht darin, dass wir in einer Welt leben, in der „Zeugnisgeber“ auftreten, die keine Menschen sind und deren Aussagen keinerlei Grundlage für Vertrauen bieten. Dies zwingt uns, die sozialen Normen, die wir zur Bewertung der Glaubwürdigkeit von Aussagen verwenden, zu überdenken und zu reformulieren.
In der digitalen Ära benötigen wir eine nicht-ideale Epistemologie, die die tatsächlichen Bedingungen der Informationsverbreitung berücksichtigt. Wir können uns nicht länger auf Idealvorstellungen von Vertrauen und Verantwortlichkeit verlassen, die in traditionellen sozialen Interaktionen selbstverständlich sind. Stattdessen müssen wir neue Mechanismen entwickeln, um zu erkennen, wann Informationen aus unglaubwürdigen Quellen stammen und wie wir uns gegen die manipulativen Taktiken von Bots und Fake-News-Verbreitern wehren können. Diese Herausforderungen erfordern eine tiefere Reflexion über die sozialen Praktiken des Wissensaustauschs und die Rolle, die die Technologie dabei spielt.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский