donald-trump-1269307_1920

Wie Algorithmen Populisten helfen – das aber nicht so sein muss

Dies habe ich beim Strategie Austria Symposium zum Thema Empathie erklärt. Hier ein Auszug aus meinem Vortrag, der gut zur aktuellen Situation passt.

Wer wütet, wird wahrgenommen
Leider ist ausgerechnet Wut eine Emotion, die sich herausragend gut über das Web verbreitet. Wer wütet, wird wahrgenommen. Rüpel erhalten online oft überproportional viel Aufmerksamkeit und Bestätigung. Das liegt daran, dass sowohl menschliche als auch technische Faktoren ihnen helfen.

Das kann man sogar messen. Die Wissenschaftler Daegon Cho und Alessandro Acquisti von der Carnegie Mellon University fanden im Jahr 2013 heraus, dass Postings mit Schimpfworten mehr Zuspruch erhalten. Sie analysierten 75.000 Leserkommentare auf südkoreanischen Nachrichtenseiten und sahen: Postings mit Beleidigungen erhalten eher Likes oder werden von anderen Lesern eher „empfohlen“. Wer hart postet, dem wird signalisiert: Nur weiter so, Daumen hoch!

Wir Menschen reagieren eben auf Wut – wir lassen uns auch sehr leicht von Wut infizieren. Das ist die menschliche Problematik hierbei.

Die Technik verschärft dies aber noch. Sie macht Wut dann umso sichtbarer, umso infektiöser. Denn was passiert, wenn jemand schimpft und viele „Likes“ bekommt? Immer mehr Webseiten werden von Algorithmen – also von klugen Computerprogramme – sortiert. Diese Algorithmen entscheiden, was die eigenen Nutzer zu sehen bekommen.

Auf Facebook ist es so, dass ein Beitrag mit vielen Likes dann noch mehr Menschen eingeblendet wird. Zur Erklärung: Wenn Sie einen Facebook-Account haben, dann werden Sie nicht alle Beiträge ihrer Freunde und gelikten Seiten angezeigt bekommen. Sondern nur einen Teil der Neuigkeiten, die Facebook für Sie auswählt.

Wir wissen leider nur grob, wie dieser Filtermechanismus funktioniert: Aber ein wichtiger Aspekt scheinen Reaktionen wie Likes oder Kommentare zu sein. Je mehr Likes und Kommentare ein Facebook-Eintrag erhält, desto mehr zusätzlichen Menschen wird dieser Beitrag angezeigt.

Wer schimpft, wer ordentlich auf den Tisch haut, der kriegt mehr Likes und mehr Kommentare
Wer schimpft, wer ordentlich auf den Tisch haut, der kriegt mehr Likes und mehr Kommentare (Anm.: dies war übrigens auch im US-Wahlkampf so, wie hier berechnet wurde). Denn die Gleichdenkenden klicken auf „gefällt mir“ und die Andersdenkenden wollen widersprechen und kommentieren das. All diese Reaktionen wertet der Facebook-Algorithmus als Signal aus, dass dieses Posting wohl interessant sei.

Ich glaube gar nicht, dass das von Facebook beabsichtigt war, doch die Konsequenz dieses Mechanismus ist: Wer aufregt und viel Reaktionen auslöst, wird mit enormer Reichweite belohnt. Insofern überrascht es nicht, dass provokante Rechtspopulisten so erfolgreich auf Facebook sind: Heinz-Christian Strache von der FPÖ ist der sichtbarste österreichische Politiker auf Facebook. In Deutschland ist die AfD die populärste Partei dort.

Ein Politiker jedoch, der weniger polarisiert und weniger emotionalisiert, wird tendenziell weniger Reaktionen ernten. Und er wird vom Algorithmus mit weniger Aufmerksamkeit belohnt. Doch in meinen Augen ist es für die demokratische Debatte zutiefst problematisch, wenn wir uns ständig von den heftigsten Wortmeldungen einnehmen lassen – wenn wir immer nur über die krassesten Ideen diskutieren. Wut besetzt aber leider die digitale Debatte.

Ich glaube nicht, dass Facebook wirklich eine Hassmaschine ist – ich würde es eher als Drama-Maschine beschreiben
Neulich hat der „Spiegel“ Facebook gar als „Hassmaschine“ bezeichnet. Ich glaube nicht, dass Facebook wirklich eine Hassmaschine ist – ich würde es eher als Drama-Maschine beschreiben. Der Algorithmus bevorzugt nämlich Beiträge, die viel Reaktion auslösen. Denn Facebook will, dass wir möglichst viel Zeit auf der Seite verbringen. Denn je länger wir dort sind, desto mehr Werbung kann Facebook uns einblenden. Und davon lebt dieses Unternehmen.

Emotionale Inhalte sind einfach eine simple Methoden, um Menschen lange auf der eigenen Webseite zu behalten – um ihnen Werbung zu servieren. Die Werbekunden sind diejenigen, die Facebook satte Gewinne bescheren. Wie heißt es so schön? Wenn du nicht der zahlende Kunde bist, bist du das Produkt.

Eine Lösung hierfür könnte sein, für Facebook zu zahlen und dafür mehr Mitsprache und weniger Drama zu verlangen. Denn Facebook ist derzeit darauf ausgerichtet, uns Werbung zu servieren. Wie würde das soziale Netzwerk aussehen, wenn plötzlich die User die zahlenden Kunden sind?

Im Schnitt verdient Facebook im Quartal vier Euro mit jedem europäischen Internetnutzer. Das ist ein bisschen mehr als ein Euro im Monat. Ich würde zum Beispiel für diese Seite vier Euro im Monat zahlen, also ein Vielfaches von dem, was Facebook derzeit mit mir verdient. Aber ich würde zwei Sachen dafür verlangen:

Erstens möchte ich genau wissen, welche Information über mich gespeichert und ausgewertet wird, und notfalls möchte ich dem widersprechen können.

Zweitens will ich auch mehr Mitsprache bei der Auswahl der Information – also bei der Auswahl, was mir im News Feed angezeigt wird. Zum Beispiel könnte Facebook zahlenden Nutzern drei verschiedene Algorithmen anbieten – und ein Teil dieser Algorithmen könnte Emotionalität nicht so hoch bewerten oder diese Algorithmen könnten auch darauf ausgerichtet sein, sehr unterschiedliche Meinungen einem anzuzeigen, Pluralität sichtbar zu machen.

Wir wissen gar nicht, ob solch andere Filtermethoden interessant wären – denn sie wurden uns nie angeboten.

Wenn nur ein Prozent der täglichen Facebook-Nutzer auf ein solches Bezahlmodell einsteigen würden, dann wären das mit einem Schlag 11 Millionen zahlende Kunden. Mehr Menschen als in Österreich. Vielleicht ist ein solches Bezahlmodell aber auch keine kluge Idee, weil sich Ärmere das nicht leisten können. Ich will mit diesem Gedankenexperiment vor allem eines vorführen: Eine Seite wie Facebook, die muss nicht auf Ewigkeit so bleiben. Wir können das Internet auch weiterentwickeln.

Kein Programmiercode ist „neutral“. Er wurde immer von Menschen, von Programmierern, von Unternehmenszielen beeinflusst
Oft wird von Technikunternehmen nur so getan, als sei der Code, den sie entwickelt haben, unverrückbar. Als ließe sich einfach nicht ändern, wie die Einrichtung des Internets, wie Webseiten, aussehen – Facebook sagt gerne über sich selbst, es ist eine „neutrale Plattform“.

Aber kein Programmiercode ist „neutral“. Er wurde immer von Menschen, von Programmierern, von Unternehmenszielen beeinflusst. Wir können aber darauf pochen, dass der Code so programmiert sein soll, dass er Empathie berücksichtigt – oder zumindest dass er Empathie nicht hemmt.

Online-Dienste ließen sich so weiterentwickeln, dass sie es den Rüpeln und Provokateuren nicht ganz so leicht machen. Womöglich kann man Webseiten sogar so gestalten, dass sie Menschen an ihr eigenes Einfühlungsvermögen erinnern. Ich will Ihnen ein Beispiel dafür geben, dass dies sogar eine realistische Vorstellung ist – nämlich dass Technik Teil der Lösung sein kann, was wir gegen den Hass im Netz tun können. Langsam entsteht nämlich Software, die den Faktor Empathie miteinrechnet.

In den USA gibt es ein Startup namens Civil. Ihre Software soll Menschen beim Verfassen von Onlinekommentaren daran erinnern, sachlich und respektvoll zu diskutieren.

Will man beispielsweise einen Leserkommentar unterhalb eines Artikels verfassen, tippt man das bei Civil in die entsprechende Box ein. Der Kommentar erscheint aber nicht sofort. Zuerst muss man drei andere Leserkommentare auf ihre inhaltliche Qualität und Tonalität hin bewerten – das geht ganz schnell per Klick.

Wenn der Nutzer das getan hat, bekommt er den eigenen Kommentar noch einmal eingeblendet, soll ihn auch auf Inhalt und Tonalität hin bewerten – notfalls kann den eigenen Kommentar sogar noch umschreiben. In einer Testphase haben das etwa fünf Prozent getan.

Der ganze Prozess zielt darauf ab, dass Menschen kurz innehalten – vielleicht kurz durchschnaufen – und reflektieren: Sind die eigenen Worte ok? Den Usern wird hier auch vor Augen geführt: So wie sie andere Nutzer beurteilen, werden sie selbst von anderen beurteilt. Civil bekämpft somit das Gefühl der Unsichtbarkeit im Netz an: Die Software soll verständlich machen, dass die eigenen Worte Gewicht haben.

Mag sein, dass eine Software wie Civil nur eine technische Krücke ist – dass dieses Tool nie so empathiefördernd wie der Augenkontakt sein mag. Aber es ist zumindest ein Schritt in die richtige Richtung. (…)

Es ist gut, dass viele Menschen kein Verständnis haben für Gewaltphantasien und Entgleisungen. Und es ist richtig, dass auch die Politik als Verbündeter gesucht wird: Wir brauchen Politiker, die notfalls Druck machen. Wir brauchen aber zusätzlich auch Internetunternehmen und Programmierer, die eines verstehen und sich wirklich zu Herzen nehmen: Die Tools, die sie uns allen in die Hand geben, die können dazu genutzt werden, andere Menschen verbal niederzuschlagen, niederzumachen. Diese Tools können aber auch so gefertigt sein, dass sie uns gegenseitig aufhelfen, dass sie uns Halt und Schutz bieten. Und ich bin überzeugt: Wir können ein solches Internet kreieren.

 

Update: Nach dem Sieg von Donald Trump bei der US-Wahl werden die Rufe nach weniger boulevardesken Algorithmen lauter, zum Beispiel hier von Bobby Goodlatte, früherer Produktdesigner bei Facebook (siehe Posting). Aber auch Software-Guru Tim O’Reilly hat einen sehr lesenswerten Text dazu geschrieben.

Hier das gesamte Video von meinem Vortrag:

Das Strategie Austria Symposium fand am 20.10. in der Anker-Fabrik in Wien statt. Mein hier zitiertes Manuskript kann vom Vortrag im Video leicht abweichen, da ich versucht habe, möglichst frei zu sprechen. Ich danke den Veranstaltern für das Aufzeichnen des Events!

 

Foto: pixabay.com

Kommentare

  1. Pingback: Erstklassiger Lesestoff für Sonntag, 20. November 2016 mit 16 Artikeln - Der Webanhalter

Kommentar hinzufügen