Gewählt – dank Facebook
Die Rankings von Google und Facebook beeinflussen Meinungen und Wahlen.
, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, & 8194; Von Eva Wolfangel
Wir benötigen Ihre Zustimmung um BotTalk anzuzeigen
Unter Umständen sammelt BotTalk personenbezogene Daten für eigene Zwecke und verarbeitet diese in einem Land mit nach EU-Standards nicht ausreichenden Datenschutzniveau.
Durch Klick auf "Akzeptieren" geben Sie Ihre Einwilligung für die Datenübermittlung, die Sie jederzeit über Cookie-Einstellungen widerrufen können.
AkzeptierenMehr Informationen
Rund 30 Prozent der US-Amerikaner informieren sich laut der US-Soziologin Zeynep Tufekci via Facebook über aktuelle Nachrichten. Facebook hat selbst in mehreren Studien gezeigt, dass nur winzige Veränderungen in seinem Algorithmus – einer komplexen Rechenvorschrift im Hintergrund – die Meinung der Nutzer zu den geteilten Inhalten anderer verändern.
Auch die Wahlbeteiligung kann der Konzern laut einer eigenen, im Fachmagazin Nature veröffentlichten Studie, beeinflussen: Während der US-Kongresswahlen 2010 schickte Facebook 61 Millionen Nutzern eine Nachricht, die sie an die Wahl erinnerte. Einem Prozent davon wurde zusätzlich angezeigt, wie viele ihrer Freunde schon wählen waren. Während die neutrale Nachricht die Menschen nicht an die Urnen trieb, gingen die Empfänger der sozialen Nachricht signifikant häufiger wählen als die Kontrollgruppe ohne Nachricht. Bei einem knappen Ausgang kann das wahlentscheidend sein, warnt Tufekci: "Facebook kann Wahlen beeinflussen – ohne dass wir das nachweisen können."
Facebook ist nicht allein: Auch bei der Suchmaschine Google entscheidet ein Algorithmus darüber, welcher Nutzer welche Ergebnisse angezeigt bekommt. Studien des US-Psychologen Robert Epstein zeigen, wie eine veränderte Auswahl an Suchergebnissen Wähler eher zugunsten des einen oder des anderen Kandidaten entscheiden ließ. Nachdem Epstein das zunächst in einer Laborstudie testete, nutzte er die Wahlen in Indien 2014 für ein Experiment. Er rekrutierte mehr als 2000 noch unentschlossene Wähler und teilte sie in Gruppen ein: eine Gruppe bekam bei ihrer Internet-Recherche mehr Suchergebnisse über den einen, eine zweite Gruppe mehr über den anderen Kandidaten präsentiert: Die Vorlieben verschoben sich um durchschnittlich 9,5 Prozent jeweils zugunsten des Kandidaten, der in den Suchergebnissen bevorzugt vorkam.
Besonders brisant ist vor diesem Hintergrund, dass sich nur eine kleine Minderheit der Google- und Facebook-Nutzer dessen bewusst ist, dass ihre Ergebnisse vom Computer individuell für sie sortiert werden. Die meisten halten das Ergebnis schlicht für eine Abbildung der Realität. Die komplexen Rechenvorschriften, die Nachrichten und Suchergebnisse in Abhängigkeit vom jeweiligen Leser sortieren, nennt man "Gatekeeper-Algorithmen" – Pförtner-Algorithmen – da sie entscheiden, welche Inhalte zum Nutzer durchdringen und welche nicht. Google und Facebook haben damit eine ähnliche Rolle und Verantwortung wie die klassischen analogen "Gatekeeper" – beispielsweise Journalisten, die auswählen, welche Nachrichten es in die Zeitung schaffen. Nur dass in einer Zeitung alle Leser das Gleiche zu sehen bekommen und wissen, dass es eine Auswahl ist. Der Entscheidungsprozess von algorithmischen Gatekeepern hingegen ist für die Nutzer nicht nachvollziehbar – und das macht sie doppelt gefährlich, so Epstein: "Solche unsichtbaren Einflüsse überzeugen nicht nur, sie hinterlassen auch noch das Gefühl, man habe sich eine eigene Meinung gebildet, ohne äußere Beeinflussung." Welche Faktoren genau in den Facebook-Algorithmus einfließen und wie sie gewichtet sind, ist ein gut gehütetes Geheimnis des Konzerns.
Bekannt ist allerdings der große Einfluss des "Like-Buttons", des "Gefällt-mir"-Knopfes, den Nutzer anklicken können, wenn ihnen eine Nachricht zusagt. Die Rechenvorschrift von Facebook lernt daraus, was die Besucher wohl interessiert – und präsentiert ihnen künftig mehr Nachrichten dieser Richtung.
Experimente zeigen aber, dass der Computer die Menschen dabei wohl zuweilen missversteht: So entschied sich etwa die Designerin Elan Morgan, zwei Wochen lang den Like-Button zu ignorieren – und war begeistert: "Das machte Facebook eindeutig besser!" Sie habe viel weniger Dinge angezeigt bekommen, die sie nicht sehen wollte. Denn offenbar hatte das System manches falsch interpretiert: Wenn sie ein Foto süßer Katzenbabys mit "Gefällt mir" markierte, bekam sie auch Fotos von Katzen, die von Tierquälern misshandelt worden waren. "Der Algorithmus versteht die vielen politischen, philosophischen und emotionalen Schattierungen eines Themas nicht", bilanziert Morgan ihr Experiment, das eigentlich nur zwei Wochen dauern sollte. Sie beschloss, es auf ihr restliches Leben auszudehnen, so viel besser gefällt ihr Facebook ohne Like: "Es scheint, als ob ich mehr von dem bekomme, was ich mir wirklich wünsche, anstatt einfach mehr und extremere Versionen von dem vorgesetzt zu kriegen, was mir gefällt."
Bedenklicher ist ein anderes Experiment, mit dem der französische Informatiker Kave Salamatian zeigte, wie sehr der Algorithmus eine Radikalisierung junger Menschen fördern kann. Der Forscher legte 130 Fake-Accounts bei Facebook an und ließ studentische Mitarbeiter drei Tage lang verschiedene Nachrichten und Informationen auf Facebook mit "gefällt mir" markieren. "Wir haben dafür harmlose Themen ausgewählt, die junge Menschen interessieren", erklärt Salamatian: zum Beispiel Tierschutz, aktuelle Kinohits oder auch eine Gruppe "I am fat and I hate that" (ich bin dick und hasse das). Nach drei Tagen ließ er die Accounts automatisch allen Empfehlungen des Netzwerks folgen – sie akzeptierten jeden neuen Freund und klickten bei jedem Vorschlag auf "Like". Sie taten das, von dem der Algorithmus dachte, dass es zu ihren Interessen passt. Nach weiteren drei Tagen hatten zehn der Profile Kontakt zu Profilen des terroristischen IS. Aus Angst vor mangelnder Anonymisierung der Mitarbeiter wurde das Experiment nicht publiziert, Salamatian stellte die Ergebnisse lediglich bei einer Konferenz vor.
Facebook selbst weist ebenso wie Google in solchen Fällen jede Verantwortung von sich. Aufgabe des Algorithmus sei lediglich, jedem Nutzer passende Suchergebnisse in kurzer Zeit zu präsentieren, so die einmütige Antwort. Erst auf Nachfrage und unter Wahrung der Anonymität erfährt man, dass bei den großen US-Unternehmen durchaus eine gewisse Ratlosigkeit herrscht: "Larry Page hat mich gefragt: Wie können wir unseren Ranking-Algorithmus so verändern, dass er bessere ethische Entscheidungen trifft?", berichtet ein Google-Mitarbeiter: "Der Wille ist da, aber die Lösung fehlt."
Vielleicht hat sich Facebook auch deswegen gegen den angekündigten Dislike-Button entschieden. Andere Netzwerke wie das Filmportal Youtube haben einen solchen Knopf, mit dem Nutzer auch sagen können, was ihnen nicht gefällt. Dieser sei ein Schritt in die falsche Richtung, hatte Tufecki gewarnt: "Facebook braucht andere Wege, um Wichtigkeit oder Unterstützung zu signalisieren." Natürlich müsse der Feed irgendwie sortiert werden. Aber angesichts der "Tyrannei des Like" gerieten beispielsweise politische Nachrichten-Posts schnell in den Hintergrund: Babys und Hochzeiten dominieren den eigenen Nachrichteneingang, die Flüchtlingsthematik findet auf Facebook fast nicht statt: Wie sollte man sie auch liken?
Was sollten Google oder Facebook idealerweise an den Topppositionen zeigen? Welche Faktoren sollten in einen entsprechenden Algorithmus einfließen, damit die Demokratie gestärkt wird? "Darauf gibt es keine einfache, keine richtige Antwort", sagt Soziologin Tufekci. Informatiker Salamatian betont, dass insbesondere jungen Menschen eine große Vielfalt angezeigt werden sollte – und eben nicht nur die Nachrichten, von denen eine Rechenvorschrift glaubt, dass sie deren Ausrichtung gut finden. Also eine Abschwächung des Rankings, dessen Wert ja genau darin besteht, individuell auszuwählen. Doch selbst wenn man davon ausgeht, dass die großen US-Unternehmen ihre Verantwortung zumindest nicht bewusst missbrauchen, stimmt die dortige Ratlosigkeit misstrauisch. Wer Wahlen beeinflussen kann, sollte auch eine Idee davon haben, wie er genau das vermeiden kann.
Kommentare
Liebe Leserinnen und Leser,
leider können Artikel, die älter als sechs Monate sind, nicht mehr kommentiert werden.
Die Kommentarfunktion dieses Artikels ist geschlossen.
Viele Grüße von Ihrer BZ