X

Sollen Onlinemedien die Kommentare abdrehen?

Jetzt ist es schon wieder passiert: Ein weiteres bekanntes Online-Medium hat seine Kommentarfunktion abgeschaltet. Wie die Technikseite „Motherboard“ (die zum Medienimperium „Vice“ gehört) nun bekanntgab, wird man dort künftig keine Postings mehr zulassen. Stattdessen können sich Leser per E-Mail an die Redaktion wenden und eine Auswahl davon wird jede Woche veröffentlicht.

Das sorgt einmal mehr für Wirbel. Und das zu Recht. In meinen Augen passiert hier etwas Bedenkliches in der Medienbranche.

Medien überlassen Facebook die Diskussions-Hoheit. Und sie blenden Probleme aus statt nach Lösungen zu suchen.

Wenn Online-Medien ihre Foren abschalten, hören User ja nicht auf, zu diskutieren. Die Debatte verlagert sich umso mehr auf Social Media – häufig auf die Facebook-Accounts der jeweiligen Medien. Die Nachrichtenagentur „Reuters“ beispielsweise hat die Kommentarfunktion unter den Nachrichtentexten abgedreht und will sich gezielt auf Social Media konzentrieren (siehe auch hier).

Doch das löst weder alle Probleme. Auch auf Facebook müssen Medien moderieren (zumindest, wenn sie ansatzweise auf den Umgangston auf ihrer Facebook-Seite achten wollen). Noch halte ich es für strategisch klug, wenn Medien ihren Lesern signalisieren: Wenn ihr diskutieren wollt, geht nicht zu uns, sondern zu Facebook. Hier geben Medien eine spannende Funktion auf – jene des Gastgebers, der zu Debatte lädt, und des Moderators, der die Rahmenbedingungen vorgibt.

In meinem Buch über die Anonymität im Internet habe ich dieses Szenario bereits erwähnt und gemeint: „Warum nicht einfach abschalten? Einzelne Webseiten oder Onlinemedien könnten freilich ihre Foren zusperren und ihren Versuch einer digitalen Debatte aufgeben. Ich halte das aber für keine Lösung, sondern lediglich für die Ausblendung eines Problems.“

Es geht auch anders: Kommentare sind nicht notgedrungen schlecht.

Jedes Medium hat sozusagen die Online-Community, die es verdient.
Lange Zeit wurde die Tonalität der Online-Foren, die Problematik vieler hasserfüllter Kommentare zu sehr ignoriert – speziell auch von Medien, die solche Foren betrieben. Nun aber hat sich das, scheint mir, ins Gegenteil verkehrt. Leserkommentare werden derzeit hauptsächlich als Problem wahrgenommen – als etwas, wo man als Redaktion gar nicht anstreifen möchte.

Das ist in meinen Augen ein Missverständnis: Die Kommentarkultur ist vor allem deswegen so miserabel, weil wir Medien uns zu wenig darum gekümmert haben, weil Redaktionen auch zu wenig den Lesern signalisiert haben, welche Debatte und welche Tonalität sie denn gut fänden.

Dass zu wenig sachliche Kommentare kamen, ist also nicht nur eine Bringschuld der User, es ist auch eine Holschuld vieler Medien, die wenig Anreize für sachliche oder gar eloquente Poster geboten haben. Jedes Medium hat sozusagen die Online-Community, die es verdient.

Das beste Beispiel ist „Zeit Online“: Mit sehr harter Moderation und einem großen eigenen Team von zwei Community-Redakteuren und 15 Moderatoren lesen die jede Woche 30.000 Kommentare, greifen ein, wenn unsachlich oder untergriffig argumentiert wird, erklären aber auch immer, warum ein Kommentar ganz oder teilweise gelöscht wurde.

So etwas kostet Geld und nicht jedes Medium kann oder will sich das leisten. Und gewiss: Es ist das gute Recht, jeder Redaktion auf Online-Kommentare zu verzichten.

Nur bedeutet ein Abdrehen der Zeitungsforen auch, dass man künftig weniger Mitsprache hat, auf welche Weise und in welchem Rahmen online diskutiert wird. Auf einer Webseite, die man selbst betreibt, kann man sowohl die Regeln als auch die technische Infrastruktur vorgeben.

An technischen Lösungen wird gearbeitet. Gerade jetzt.

Zum Teil sind die aggressiven Postings im Netz auch ein technisches Problem, worüber ich bei meinem TedxTalk in Linz sprach:

„Ich glaube, wir müssen etwas tiefer gehen und die Architektur des Internets überdenken und unseren Umgang damit. Wir mach es nämlich viel zu oft den Rüpeln zu einfach.
Ein Beispiel: Internetforen haben sich eigentlich seit den 90er-Jahren nicht wesentlich weiterentwickelt. Gehe ich heute in ein Internetforum, ist es meistens so, dass ich als Oberstes den neuesten Kommentar sehe. Das Forum wird also chronologisch gereiht und das hilft jenen, die gar nicht diskutieren wollen sondern nur die anderen zutexten.
Nehmen wir an, ich poste hundert Mal in einem Forum, dann bin ich 100 Mal an erster Stelle, ganz oben, prominent sichtbar. Aber was ist, wenn ich nur einmal poste, weil ich eigentlich nur eine Sache zu sagen habe, und wenn ich diesen Punkt dann eingebracht habe, dann passt es für mich, dann habe ich meinen Beitrag geleistet? Dann poste ich einmal und ich bin nur einmal oben. Ich bin nur ganz kurz oben sichtbar. Aber ist meine eine Wortmeldung, denn so viel weniger wert als die Wortmeldung des anderen, der auf Teufel komm raus hundert Mal postet?
Genau solche Systeme helfen jenen, die extrem aggressiv kommunizieren und eigentlich die anderen nur niedertexten wollen.“

Die gute Nachricht ist: An besseren technischen Lösungen wird bereits gearbeitet. Die „New York Times“ bastelt mit der „Washington Post“ und mit Mozilla am sogenannten „Coral Project“. Es soll die technische Infrastruktur für neue Kommentarsysteme sein – und wird als Open-Source-Software dann auch kostenlos anderen Medien angeboten. Sicher ist es noch ein weiter Weg, bis diese Software fertig ist, und Software allein kann nicht das gesamte Problem des Hass im Internet lösen, aber all dies geht in die richtige Richtung. (Die „New York Times“ ist übrigens schon jetzt beeindruckend im Moderieren und Herzeigen von klugen Leserkommentaren, siehe: http://www.niemanlab.org/2015/10/new-york-times-editor-we-have-to-treat-comments-as-content/)

Es gibt sie – eine Kompromisslösung.

Es ist wohl unrealistisch, dass deutschsprachige Medien reihenweise so viele Moderatoren anheuern werden wie die „New York Times“ oder „Zeit Online“. Das ist zum Teil verständlich: Der Medienbranche fehlen ertragreiche Geschäftsmodelle im Netz, um Heerscharen von Moderatoren anzustellen.

Im Zweifelsfall aber, wenn eine flächendeckende, hochqualitative Moderation zu kostspielig ist, gibt es einen Zwischenweg: Vielleicht muss wirklich nicht unter jedem Artikel in jedem Ressort die Kommentarfunktion freigeschaltet werden (auch die „New York Times“ erlaubt Postings nur unter ausgewählten Artikeln, die wirklich moderiert werden). Vielleicht reicht es auch schon, gezielt als Medium unter den zwei, drei bedeutenden Artikeln des Tages die Leser zum Diskutieren anzuregen – am besten mit Einmischung des Autors des Textes. Dies macht ansatzweise die „Süddeutsche“ so, die jeden Tag zu Themen des Tages ein moderiertes Forum betreibt, und auch „The Verge“ macht es so, die sowohl ein Forum als auch einzelne Texte mit Kommentarfunktion haben. Helen Havlak, die bei „The Verge“ hierfür zuständig ist, sagt dazu:

„As we turned off the comments on the posts, we’ve seen more people go into the forums. Forum traffic has jumped about 36 percent. It’s at its highest point by far this year.
In certain posts, we chose to leave the comment thread on. We chose to have the writer go in and say, OK, this is the question I want to pose to the readers to start a valuable discussion. And that’s [also] what a forum post does: it keeps things on topic, it keeps things positive, and it’s less [just] reaction to a story.“

Das wäre zumindest ein Kompromiss: Dass man in ausgewählten Fällen und bei Themen, die der Redaktion ein Anliegen sind, mit dem Leser direkt in Austausch tritt.

tl;dr-Zusammenfassung

Im Kern glaube ich, dass eine andere Debattenkultur – auch in Zeitungsforen – möglich ist. Wenn sich Medien für diese Debattenführung nicht zuständig sehen oder ihnen das alles zu mühsam erscheint, ist das ihr gutes Recht. Nur geben damit Redaktionen einen weiteren Teil ihrer Bedeutung für die öffentliche Debatte auf. Und jeder Bedeutungsverlust ist in Zeiten wie diesen für Medienunternehmen doch eher überlegenswert.

Weitere Texte/Wortmeldungen zum Thema:

Mathew Ingram vertritt ganz ähnliche Thesen wie ich und bringt spannende Beispiele, zum Beispiel von „De Correspondent“ in den Niederlanden: Sein “Forbes”-Artikel.
Wolfgang Blau (bisher vom „Guardian“, bald bei der Condé-Nast-Verlagsgruppe) hat das Thema heute schon auf Facebook und auf Twitter kommentiert. Er schreibt auf Facebook: „Vice doesn’t want to invest into proper comment moderation, which is their good right. What is unfortunate, though, is that they play the age-old game of blaming the internet for poor comment quality.“
Hier ein Überblick des NiemanLab, wie sich das Abdrehen von Kommentaren auf einzelne Medien ausgewirkt hat.
– Übrigens lässt auch die neue „Reddit“-Seite „Upvoted“ keine Kommentare zu. Hier berichtet „Wired“ darüber.

 

Fotocredit: Das obige Bild stammt von Flickr-User hannes.a.schwetz. Update: In der Erstversion des Textes hatte ich veraltete Zahlen, wie viele Moderatoren bei “Zeit Online” arbeiten. Mittlerweile sind es 15, die 30.000 Kommentare pro Woche prüfen. 

View Comments

  • Ich finde an den drei Beispielkomentaren nichts verwerfliches.

    Für freie Meinung und gegen Neusprech!!!

  • Ich verstehe das Problem mit den Beispiel-Kommentaren leider auch nicht. Das Problem ist anscheinend doch eher der Inhalt, nicht die Form. Wären im Kommentar #1 böse Polizisten gemeint gewesen, wäre wahrscheinlich alles in Ordnung.

    Spannender finde ich folgende Frage: Welcher der folgenden Kommentare ist denn nun ein Hass-Kommentar?

    a) Asylanten sollten sofort, ohne wenn und aber, wieder abgeschoben werden!

    b) Dem Polizisten, der mit Pfefferspray auf die Demonstranten losgegangen ist, sollte man selbst mal eine ordentliche Ladung ins Gesicht verpassen.

    c) All cops are bastards!

  • Ich denke, dass das Einstellen eines einzelnen Community-Managers, der nach seinen eigenen bzw. nach redaktionell vorgegebenen Moralvorstellungen die Nutzerkommentare zensiert, nicht der richtige Weg sein kann. Zu empfehlen wäre da eher, auf eine andere Technologie zurückzugreifen, die eine Regulierung durch die Community selbst ermöglicht - quasi durch Mehrheitsentscheid. Ein gutes Beispiel hierfür liefert momentan das Portal YouTube, in dem die Möglichkeit besteht, jeden einzelnen Kommentar als positiv oder negativ zu bewerten. Ab einer gewissen Anzahl negativer Bewertungen wird ein Kommentar standardmäßig ausgeblendet (und nicht gelöscht!) - man muss ihn explizit wieder einblenden, falls man neugierig darauf sein sollte, warum er geschmäht wurde. Nach meiner Beobachtung funktioniert dieses System recht gut und wird von der YT-Nutzergemeinde durchaus gerne in Anspruch genommen. Außerdem stellt es einen Kompromiss zwischen Zensurbefürwortern und -gegnern dar.

  • Bei vielem im Artikel möchte ich zustimmen, aber eine Befürchtung bleibt: Zu viel Kontrolle. Zum Beispiel Foren mit einer Vorab-Moderation finde ich persönlich unbenutzbar. Auch zu strenge Nettiquette, wie Spiegel-Online-Foren, wo wohl das siezen gefordert wird (Leute, wirklich?) sind ein Hinderungsgrund. Und eine Zwangsregistrierung erst Recht. Dafür muss man die Seite schon sehr oft besuchen, dass sich das lohnt. Um gelegentlich mal einen interessanten Blogartikel durch einen Tipp zu ergänzen werde ich mir bestimmt keinen Account anlegen.

  • Hi, mich beschleicht oft das Gefühl Internetforen werden zum Abreagieren verwendet. In der "offline" Welt leiden viele Menschen an Harmoniesucht. Man möchte Freunde nicht verunsichern oder gar verärgern. Also spielt man eitle Wonne, geht nach Hause und lässt Dampf ab beim Beschimpfen von Fremden.
    Andererseitsss sind Regeln wie: „Dont feed the Troll“ schon recht alt, werden aber nicht immer befolgt. Hier müssen die Nutzer noch erwachsen werden. Youtube bietet dafür mit dem Ausblenden von stark negativ bewerteten Kommentaren eine Hilfe an. Bei einigen Themen wie Sexismus, Ausländerhass etc. ist ignorieren nicht ausreichend. Hier müssen die Nutzer die nötigen Werkzeuge erhalten um solch einen Hassposter zu melden, auszublenden. An einer Moderation kommt man dann natürlich nicht mehr vorbei. Moderatoren lassen sich aus der Community rekrutieren.

    Guter Artikel, alles Gute beim Buch!

  • Der Artikel spricht mir aus der Seele. Besonders gefällt mir, dass das Problem von Hasskommentaren mal thematisiert wird, ohne einer Klarnamenpflicht das Wort zu reden. Denn für ano- oder pseudonymes Posten gibt es diverse Gründe, viele davon völlig legitim. Außerdem löst eine Klarnamenpflicht, wie Sie das ja schon im vorangehenden Beitrag dargelegt haben, das Problem überhaupt nicht. Das ist in dem Zusammenhang einfach eine Scheindebatte.

    Sehr wertvoll fand ich auch den Hinweis darauf, dass es eine wichtige Rolle spielt, ob und wie die Autor_innen des kommentierten Artikels sich an der Diskussion beteiligen.

    In einem Punkt greift mir der Artikel aber etwas zu kurz, nämlich wenn das Problem auf die Form der Kommentare reduziert wird, unabhängig vom Inhalt. Die Form ist sicherlich ein großes Problem, und die meisten Meinungen kann man auch ohne hate speech vortragen. Es gibt aber auch Meinungen, die an sich hasserfüllt sind. Um ein besonders klares Beispiel zu nehmen: Wenn jemand der Meinung ist, alle Homosexuellen sollten getötet werden - dann kann er_sie das so sachlich und unaufgeregt formulieren wie nur möglich (also wie ich das in dem Beispiel grade getan habe), es bleibt eine zutiefst hasserfüllte Botschaft.

    Ich bin also der Meinung, dass Foren und Kommentarspalten keineswegs allen Meinungen Platz einräumen sollten, genausowenig wie allen Formulierungen. (Das bezieht sich natürlich auf Portale mit dem entsprechenden Anspruch; pi oder Krone haben halt das Publikum, das zum redaktionellen Inhalt passt.) Nicht alles, was generell gesagt werden darf - strafrechtlich sind der Meinungsfreiheit zum Glück nur seeehr weite Grenzen gesetzt - muss auch überall gesagt werden dürfen.

    Problematisch ist natürlich die Grenzziehung, wofür es sicher kein Patentrezept gibt. Da ist auch die Selbstdisziplin von Blogger_innen und Redaktionen gefragt; positive und kritische Kommentare sollten unbedingt nach den gleichen Kriterien behandelt werden. Auf jeden Fall bin ich für größtmögliche Transparenz, d.h. es sollte so gut wie möglich allgemein dargelegt werden, was akzeptabel in Kommentaren ist und was nicht. Im Sinne der Transparenz bin ich auch eher dafür, Hasskommentare nachträglich zu löschen, als Kommentare von vornherein erst nach Prüfung freizuschalten. Dann können User_innen nämlich ab und an sehen, was gelöscht wird und was nicht.

    Eine Halde für gelöschte Kommentare nach Vorbild von hatr.org fände ich auch gut. Dann kann man nämlich sehen, ob tatsächlich nur Hasskommentare gelöscht werden oder generell missliebige Meinungen und sanfte Polemiken. Außerdem bleibt so die Freakshow an einem sicheren Ort erhalten. Daraus lassen sich ja auch wichtige Erkenntnisse über die Verbreitung bestimmter Formen von Hass gewinnen.

  • I want to to thank you for this great read!! I definitely enjoyed every bit of it.
    I have you book marked to check out new things you post…

  • Schön auf den Punkte gebracht kann man da nur sagen, ich selbst arbeite in einer Werbeagentur in Klagenfurt und wir stellen zum Teil auch Printmedien her. Da finde ich diesen Artikel sehr treffend, da ich auch schon oft sowas zu hören bekommen habe.
    Dann werde ich mal etwas Feenstaub auf den Bildschirm werfen um etwas schönes zu zaubern. =)

  • You really make it seem so easy with your presentation
    but I find this topic to be really something which I think I would never
    understand. It seems too complicated and extremely broad for me.

    I'm looking forward for your next post, I will try to get the hang of it!

  • Ich glaube auch das ist Geschmackssache, da gibt es sicher einige Pros und Contras ;) Ich persönlich bevorzuge die guten alten Bücher, aber in der jüngeren Generation scheinen eBooks voll im Trend zu liegen, hier ein Beispiel. LG

  • 1 11 12 13 14 15 39