Sind wir wirklich gespaltener denn je? Wie soziale Medien uns polarisieren
Diese Frage hat eine große Gruppe von Sozialwissenschaftlern wie mich dazu veranlasst, eine erstmalige Studie durchzuführen. Sie baten 10 207 Menschen in 26 Ländern zu schätzen, wie sehr Menschen mit gegenteiligen Ansichten sie ablehnten. So baten sie beispielsweise Menschen, die sich mit der Labour-Partei im Vereinigten Königreich identifizieren, zu schätzen, wie sehr sie die Konservativen auf einer Skala von 0 bis 100 einschätzen, wobei 0 für extrem negative Ansichten steht.
Die Ergebnisse zeigten, dass die Menschen in den meisten Ländern das Ausmaß der Abneigung gegen ihre politischen Gegner drastisch überschätzten – oft zwischen 10 und 25 Punkten auf der 100-Punkte-Skala. In Folgeexperimenten zeigten die Wissenschaftler, dass die Aufklärung der Menschen über diese Fehleinschätzungen wiederum negative Einstellungen zwischen den Gruppen verringern kann. Diese Ergebnisse deuten darauf hin, dass der Glaube an die Polarisierung eine sich selbst erfüllende Prophezeiung schaffen kann, die Gesellschaften in einen Teufelskreis aus Missverständnissen und Böswilligkeit stürzt.
Einerseits ist diese Frage fast so alt wie die Sozialwissenschaftler. Sozialpsychologen, Soziologen und Politikwissenschaftler warnen seit langem vor "falscher Polarisierung" – oder der Tendenz der Menschen, die ideologische Extremität ihrer politischen Gegner zu übertreiben und die ihrer eigenen Seite zu minimieren.
Obwohl die Ursachen für die falsche Polarisierung zweifellos komplex sind, besteht unter den Wissenschaftlern ein wachsender Konsens darüber, dass die sozialen Medien Öl ins Feuer gießen. Im Jahr 2019 führte das Pew Research Center eine faszinierende Studie durch, aus der hervorging, dass 6 Prozent der amerikanischen Twitter-Nutzer 76 Prozent aller Tweets über Politik verfassen. Als ich diese Daten genauer untersuchte, erfuhr ich, dass die meisten dieser kleinen Gruppe von Menschen sich als "extrem konservativ" oder "extrem liberal" bezeichnen.
Eine Antwort könnte in der Gestaltung der sozialen Medien selbst liegen. Obwohl die genauen Details der Algorithmen, die die Nutzererfahrungen in sozialen Medien steuern, ein streng gehütetes Unternehmensgeheimnis bleiben, sind sich die meisten Experten einig, dass sie stark vom Engagement der Nutzer beeinflusst werden. Wenn alle Ihre Freunde einen radikalen Beitrag wütend anprangern, zeigen Ihnen die meisten Plattformen die gleiche Nachricht früher als andere - unabhängig von der Wertigkeit der Reaktionen Ihrer Freunde.
Um den Kreislauf der falschen Polarisierung - oder das, was ich das "Prisma der sozialen Medien" genannt habe – zu durchbrechen, sind Maßnahmen auf mehreren Ebenen erforderlich. Erstens müssen die Nutzer sozialer Medien lernen, dass sie jedes Mal, wenn sie Beiträge ansehen, mögen oder kommentieren, die sie wütend machen, "mit dem Daumen abstimmen". Wenn wir unsere Wut über solche Nachrichten äußern, riskieren wir, weitere Aufmerksamkeit auf sie zu lenken.
Aber zu lernen, die Trolle nicht zu füttern", ist viel leichter gesagt als getan. Unsere Instinkte, diejenigen zu tadeln, mit denen wir nicht einverstanden sind, sind oft unbewusst – oder werden durch sich schnell entwickelnde Ereignisse oder Krisen ausgelöst, die uns daran hindern, die Folgen unseres Verhaltens vor anonymen Fremden im Internet in Ruhe zu bedenken.
Die Herausforderung, eine falsche Polarisierung zu bekämpfen, wird noch gewaltiger, wenn man sich vor Augen führt, dass böswillige Akteure Einflusskampagnen erstellen, die oft darauf abzielen, Empörung zu schüren. Die russische Internet Research Agency beispielsweise wird weithin für die Erstellung tausender gefälschter Social-Media-Konten verantwortlich gemacht, die sich während der US-Präsidentschaftswahlen 2016 als Personen mit extremen Ansichten ausgaben. Auch wenn solche Kampagnen die Meinung der Menschen oft nicht direkt beeinflussen, tragen sie wahrscheinlich zu dem Eindruck bei, dass die Polarisierung außer Kontrolle geraten ist.
Am wichtigsten ist vielleicht, dass große Sprachmodelle dynamische Unterhaltungen mit Menschen führen können. Dies schafft das Potenzial für eine neue, mächtigere Art von Beeinflussungskampagnen, bei denen sich Menschen in giftigen Auseinandersetzungen mit Schwärmen von Bots wiederfinden könnten, die von großen Sprachmodellen gesteuert werden.
Diese neuen Bedrohungen und die ständige Herausforderung, unsere unbewussten Instinkte zu unterdrücken, um unsere Seite zu verteidigen lassen vermuten, dass die Abschwächung falscher Polarisierungen in sozialen Medien weitaus ehrgeizigere Maßnahmen erfordern wird. Eine Antwort könnte tief im Design der Social-Media-Plattformen selbst liegen.
Obwohl Social-Media-Plattformen oft als der neue Marktplatz der Demokratie bezeichnet werden, wurden sie sicherlich nicht zu diesem Zweck entwickelt. Facebook entwickelte sich aus einer Website, die Studenten half, die körperliche Attraktivität der anderen zu bewerten. Instagram hieß ursprünglich "Burbn" und diente dazu, mit Freunden alkoholhaltige Treffen zu organisieren. Auch Twitter, YouTube und TikTok wurden nicht zur Förderung des demokratischen Dialogs konzipiert.
Stattdessen haben sich die meisten der heute dominierenden Plattformen von esoterischen Gemeinschaften im Internet zu prominenten Foren für öffentliche Debatten entwickelt. Auf diesem Weg wurde das Design von Social-Media-Plattformen – das sich allzu oft darauf konzentriert, die Nutzer um jeden Preis bei der Stange zu halten - weitgehend nicht hinterfragt. Doch die fieberhafte politische Debatte auf so vielen Plattformen legt nahe, dass es an der Zeit sein könnte, einige der grundlegendsten Annahmen darüber, wie soziale Medien funktionieren sollten, zu überdenken.
Wir sind ein Team aus Sozialwissenschaftlern, Statistikern und Informatikern, die experimentelle Forschung zu den wichtigsten Faktoren des Nutzerverhaltens in sozialen Medien betreiben, aber auch Prototypen für neue Technologien entwickeln, die gegen polarisierende Nutzer vorgehen sollen.
Eines der ersten Tools, die unser Labor entwickelte, war ein "Bipartisanship Leaderboard". Dieses Tool verfolgte eine sehr große Gruppe von Twitter-Nutzern mit unterschiedlichem politischem Hintergrund und ermittelte die gewählten Vertreter, Zeitschriften und Meinungsführer, deren Beiträge positive Reaktionen von Personen mit unterschiedlichen Standpunkten hervorriefen. Unser Ziel war es, diejenigen Nutzer zu belohnen, die produktive, gemäßigte Positionen zum Ausdruck brachten, und sie zu ermutigen, weiterhin "über den Tellerrand zu schauen".
Aber unser übergreifendes Ziel war viel tiefergehend - die Anreizstruktur der sozialen Medien selbst zu verändern. In meinem Buch aus dem Jahr 2021 schlug ich einen "Brückenalgorithmus" vor, der Nachrichten, die positives Feedback von verschiedenen Arten von Menschen erhielten, verstärken würde. Die Nachricht eines Republikaners, dessen Botschaft bei den Demokraten auf Resonanz stößt, würde beispielsweise viel früher in unseren Newsfeeds erscheinen als die eines extremen Liberalen, der dem Chor predigt.
Der Bridging-Algorithmus wurde nicht nur entwickelt, um Menschen zu ermutigen, produktive Beiträge zu verfassen, die verschiedene Zielgruppen beeindrucken. Er kann auch dazu führen, dass die sozialen Medien für Trolle zu einem weniger lustigen Spielplatz werden. Die meisten Social-Media-Plattformen belohnen Trolle dafür, dass sie andere verärgern, indem sie ihre Beiträge ganz oben in unseren Newsfeeds platzieren. Als Twitter in einer Studie aus dem Jahr 2022 unseren Bridging-Algorithmus einführte, wurden Fehlinformationen weniger als 25 % häufiger geteilt.
Kein einziger Algorithmus kann die anhaltende Polarisierung lösen, die heute so viele Länder weltweit belastet. Dennoch müssen Führungskräfte aus der Wirtschaft und der Wissenschaft zusammenarbeiten, um viele weitere kreative Lösungen zu entwickeln, die den Menschen helfen, die Kluft zwischen den sozialen Medien und der Realität zu erkennen. Ohne solche Bemühungen werden sich zu viele Menschen nicht bewusst sein, dass die Kluft, die so viele Mitglieder rivalisierender Gruppen auf der ganzen Welt zu trennen scheint, vielleicht gar nicht so groß ist, wie die meisten Menschen denken.
Über Chris Bail
Über die Allianz
** Stand: 30. September 2024