Zum Inhalt springen

Vorgefiltertes Web Die ganze Welt ist meiner Meinung

Es ist eine schleichende, unheimliche Veränderung: Bei Facebook, Google oder Amazon entscheidet Software, was der Nutzer zu sehen bekommt und was nicht. Nur wenigen ist bewusst, wie stark Algorithmen inzwischen unser Bild von der Wirklichkeit bestimmen - was nicht passt, schluckt der Filter.
Facebook-Kontakte weltweit: Mitglieder sehen eine gefilterte Version ihres sozialen Umfelds

Facebook-Kontakte weltweit: Mitglieder sehen eine gefilterte Version ihres sozialen Umfelds

Foto: KAREN BLEIER/ AFP

Facebook

Eli Pariser, der langjährige Chef der Politaktivisten-Plattform MoveOn.org, hat vor ein paar Tagen auf der TED-Konferenz eine interessante Geschichte  zu den neuen Pforten der Wahrnehmung erzählt: Irgendwann, so Pariser, sei ihm auf aufgefallen, dass er in seinem Nachrichtenstrom immer weniger von den konservativen Kontakten las, die er seinem Netzwerk hinzugefügt hatte. Um auch mit abweichenden Meinungen konfrontiert zu werden, wie er sagt. Allein: Der Facebook-Algorithmus blendete mit der Zeit mehr und mehr dieser Meinungsäußerungen aus - weil, so vermutet Pariser, er nicht so oft die von den konservativen Kollegen empfohlenen Artikel anklickte wie die seiner liberalen Gleichgesinnten.

So kann es gehen, in einer digital sortierten Welt: Auf einmal sind sie weg, die Freunde bei Facebook, aussortiert aus dem Nachrichtenstrom, den das soziale Netzwerk jedem eingeloggten Nutzer zeigt. Die erstaunliche Entdeckung, dass auf einmal so gar nichts mehr von einigen Menschen zu lesen ist, die man doch einmal mit einem Mausklick zu Freunden erklärt hatte, schockiert Nutzer des sozialen Netzwerks immer wieder. Man kann die mal erstaunten, meist verärgerten Reaktionen auf diese Filterung nachlesen unter Schlagzeilen wie "Heimliche Facebook-Änderung" oder "Wie Facebook eure Freunde vor euch versteckt".

Der Filter bleibt oft monatelang unbemerkt

Es stimmt: Facebook zeigt standardmäßig jedem Nutzer eine andere, von Algorithmen berechnete Auswahl der Ereignisse in ihrem sozialen Umfeld an. Meldungen von jenen Menschen und Quellen nämlich, mit denen die Nutzer "am häufigsten interagieren" - so die vage Facebook-Formulierung. Das ist schon seit 2009 so. Erstaunlich an den immer wiederkehrenden Unmutsäußerungen von Mitgliedern ist vor allem das: Die Menschen merken monatelang nicht, dass Software für sie entscheidet, was relevant ist. Erst in dem Augenblick, in dem ihnen dieser Filter bewusst wird, fühlen sich einige bevormundet, getäuscht, entmündigt.

Es ist erstaunlich, wie wenigen Internetnutzern bewusst ist, dass Software auf Basis ihres Surfverhaltens, ihres Orts, ihrer Kontakte die Onlinewirklichkeit für sie vorsortiert.

Dass man beim Onlinehändler Amazon monatelang bei jedem Besuch Reclam-Bändchen auf der Startseite sieht, wenn man einmal Hoffmanns "Elixiere des Teufels" gekauft hat, weiß fast jeder. Aber dass Googles Suchergebnisse und eben auch die Nachrichten aus dem Facebook-Freundeskreis für nahezu jeden Nutzer individuell gefiltert sind - das erstaunt doch viele. Google führte schon Ende 2009 die personalisierte Suche  für alle Nutzer ein. Die funktioniert, einfach ausgedrückt so: Wenn man im vergangen halben Jahr von seinem Rechner aus bei Google-Suchen besonders oft auf Ergebnisse von Reiseportalen geklickt hat, taucht in den Treffern zu Ägypten recht weit oben vielleicht eine Reiseseite auf, statt einer Seite über die politischen Veränderungen in dem Land. Außer, man hat der Personalisierung explizit widersprochen.

Was ist relevant? Eichhörnchen-Videos oder Nachrichten aus Afrika?

Bei Facebook diskutierten die Entwickler schon 2005, dass ein Software-Filter unabdingbar sei, um den Nutzern lediglich eine relevante Auswahl der Nachrichten aus dem stetig wachsenden Facebook-Freundeskreis jedes Mitglieds zu liefern. Nachlesen kann man das in dem Buch "The Facebook effect", in dem dieses Zitat  von Facebook-Gründer Mark Zuckerberg zu Filter-Algorithmen überliefert ist: "Ein Eichhörnchen, das vor deinem Haus stirbt, könnte für dich in diesen Augenblick wichtiger sein als Menschen, die in Afrika sterben."

Ob man nun das Eichhörnchen von nebenan oder die Nachrichten über Haiti beim Aufruf der Facebookseite sieht, hängt von dem sogenannten Edge-Rank ab. Diesen Wert berechnen die Facebook-Algorithmen für jede für ihn womöglich relevante Nachricht. Je höher der Edge-Rank ausfällt, desto höher ist die Wahrscheinlichkeit, dass man den Kommentar, die Artikel-Empfehlung oder die Meinungsäußerung eines Facebook-Kontakts oder einer anderen Quelle in dem Netzwerk zu sehen bekommt.

Der Edge-Rank basiert auf einer Reihe von Kriterien, dazu gehört auf jeden Fall, wessen Einträge ein Nutzer zuletzt kommentiert, wem er viele Nachrichten geschrieben und wie oft er bestimmte Artikel einer Quelle aufgerufen hat.

Wer Katzen mag, sieht eben keine Hundefotos

Umgekehrt heißt das auch: Was man nicht oft genug anklickt, sieht man irgendwann nicht mehr. Na und? Wer Katzen mag, sieht eben keine Hundefotos. Und es ist vielleicht etwas unheimlich, aber nicht weiter schlimm, wenn man bei Facebook irgendwann nur noch Dinge liest, die Katzenfreunde von sich geben. Aber da zum Beispiel mehr und mehr Menschen ihren Nachrichtenkonsum über Facebook organisieren, geht es längst nicht mehr nur um Hunde, Katzen und den eigenen Onlineklüngel.

Letztlich verstärkt der Facebook-Filter die Weltsicht des jeweiligen Nutzers. Wer sich diesen Mechanismus nicht bewusst macht, könnte den Eindruck gewinnen, die ganze Facebook-Welt sei fast einer Meinung - seiner. Eli Pariser schreibt gerade ein Buch über die "Filter Bubble", wie er die Auswirkungen der Filter-Algorithmen nennt. Bei seinem Vortrag sprach er von einer "unsichtbaren algorithmischen Redaktion" des Webs. Seine Befürchtung: "Wir bewegen uns in eine Welt, in der das Internet uns nur Dinge zeigt, von denen es denkt, dass wir sie sehen müssen, nicht aber, was wir sehen sollten."

Die digitale Schweigespirale

Parisers Analyse greift etwas kurz, solange er nur von den Algorithmen spricht, die das Netz filtern. Eine ganz ähnliche Verengung der Weltsicht lässt sie bei Twitter beobachten, wo die Nutzer selbst entscheiden, welchen Menschen sie folgen, wessen Leseempfehlungen und Kommentare sie sehen wollen. Twitter filtert diesen persönlich zusammengestellten Strom der Hinweise, Wortmeldungen und Kommentare nicht - man sieht in chronologischer Abfolge ohne jede weitere Gewichtung, was das selbstgewählte Umfeld gesagt hat.

Und doch wirkt die vom selbstgewählten Twitter-Umfeld gelieferte Sicht auf die Welt verzerrt, wenn man sie einmal mit dem Smalltalk in der U-Bahn, der Kneipe oder den Kommentaren auf einer beliebigen Nachrichtenseite im Netz vergleicht. Zumindest in meinem Twitter-Umfeld gilt Karl-Theodor zu Guttenberg als unerträglich. Das sehen einige Menschen anders, und unabhängig davon, was man nun darüber denkt: Es ist erstaunlich, wie wenig abweichende Meinung zu diesem und anderen Themen ich in meinem Twitter- und Facebook-Umfeld lese.

Die Kommunikationswissenschaftlerin Elisabeth Noelle-Neumann hat vor Jahrzehnten in einer Welt ohne Netz eine These für die Wirkung des Fernsehens und der Zeitungen auf die Meinungsäußerungen jedes einzelnen aufgestellt: Wenn Menschen bei moralisch aufgeladenen Fragen den Eindruck gewinnen, dass sie mit ihrer Meinung zur Minderheit gehören, äußern sie diese nicht.

Noelle-Neumann sprach von einer Schweigespirale.

Ein Kommunikations- wissenschaftler sollte unbedingt mal erforschen, ob sich so ein Effekt bei bestimmten Themen auf Facebook und Twitter beobachten lässt. Es erscheint zumindest plausibel, dass Menschen sich in einem bestimmten Umfeld mit ihrer Meinung zurückhalten. Wenn das geschieht, fehlen abweichende Blickwinkel - und die Welt scheint digital viel einhelliger, als sie in Wahrheit ist.