In diesem Brief aus der Zukunft geht es um Content Moderation // Newsfeed anpassen// Shift Happens #6.
Nur sechsundzwanzig Worte sind es, die das Internet zu dem gemacht haben, was es heute ist, schreibt Jeff Kosseff, Journalist und Professor für Cybersecurity-Recht, in seinem Buch „The Twenty-Six Words That Created the Internet.“ So klingt der trockene Gesetzestext, auf den sich Kosseff bezieht, gleich viel interessanter – und interessant ist er auch, wenn nicht sogar brisant: „Section 230“ des amerikanischen Communications Decency Act von 1996 legt in sechsundzwanzig Worten fest, dass Online-Plattformen nicht für Inhalte haftbar sind, die von ihren User:innen geteilt werden. Der springende Punkt der Argumentation: Plattformen würden Inhalte nur verteilen, nicht produzieren.
Dieser Grundsatz, der ganz entscheidend zum rasanten Wachstum digitaler Plattformen beigetragen hat, wird vor dem amerikanischen Supreme Court nun infrage gestellt. Am vergangenen Dienstag befassten sich die Richter:innen mit der Klage einer Familie gegen das zu Google gehörende YouTube: Die Videoplattform habe durch ihre Empfehlungsalgorithmen dazu beigetragen, islamistische Hassvideos zu verbreiten, und so die IS-Terroristen radikalisiert, die die Tochter der Familie 2015 in Paris töteten.
Es ist nicht nur diese eine Klage, sondern eine ganze Reihe von Vorfällen, die die Unzulänglichkeit der Inhaltsmoderation auf digitalen Plattformen, und ihre tragischen Konsequenzen, sehr deutlich machen. Gegen Meta wurde 2021 und 2022 geklagt, weil hasserfüllte Facebook-Kommentare – in Sprachen, die die Facebook-Moderator:innen teilweise gar nicht verstanden – sowohl den äthiopischen Bürgerkrieg als auch die grausame Verfolgung der Rohingya befeuerten. Vor wenigen Wochen erhielt außerdem der Hype um ChatGPT einen deutlichen Dämpfer, als das Time Magazine berichtete, dass der Chatbot nur so freundlich wirkt, weil kenianische Arbeiter:innen die furchtbarsten Inhalte bereits in Handarbeit aussortiert haben.
Wer letztlich die Verantwortung für digitale Inhalte übernimmt, bleibt eine schwierige Frage – nicht nur in den USA, sondern auch in der EU, die Plattformen durch den Digital Services Act 2022 bereits mehr Verantwortung auferlegt hat. Besonders interessant an der Klage, die nun vor dem Supreme Court verhandelt wird, ist die Argumentation der Anklage, dass auch Empfehlungsalgorithmen Inhalte und Plattformen somit haftbar seien. Das mag zunächst wenig überzeugend klingen. Doch schaut man sich an, wie etwa die Integration von ChatGPT in Suchmaschinen die Grenze zwischen der reinen Darstellung und Produktion von Inhalten immer weiter verschiebt, könnte man auch sagen: Wenn sich Plattformen wie Content Producer verhalten, müssen sie damit rechnen, dass sie auch so behandelt werden.
von Lea Beiermann
Personal Growth
Den eigenen Newsfeed moderieren
Eine große Herausforderung der Inhaltsmoderation ist, dass sie sich nur schwer skalieren lässt. Menschliche Moderator:innen werden zwar häufig von KI unterstützt, doch ganz automatisieren lässt sich das Aussortieren anstößiger Inhalte bisher nicht.
Viele Plattformen setzen daher auf eine dezentrale Inhaltsmoderation: User:innen werden selbst zu Moderator:innen, indem sie Inhalte melden oder – so etwa auf dem amerikanischen Twitter – in den richtigen Kontext setzen. Bekannt wurde diese Funktion spätestens, als Ende 2022 ein Tweet von Elon Musk, zu diesem Zeitpunkt schon Twitter-Besitzer, von User:innen seiner eigenen Plattform mit einem Warnhinweis versehen wurde.
Wenn du den Content, den du in deinen eigenen Feeds siehst, besser moderieren willst, könntest du auf diese Weise damit anfangen:
1. Melden: Die meisten Plattformen bieten Nutzer:innen die Möglichkeit, unangemessene Inhalte zu melden, um das digitale Miteinander angenehmer für alle zu machen. Manchmal kannst du Inhalte auch um zusätzliche Informationen ergänzen, damit andere sie besser einordnen können.
2. Blockieren oder Stummschalten: Du kannst User:innen, die sich unangemessen verhalten, blockieren oder stummschalten. Manche Plattformen bieten eine ganze Reihe von Möglichkeiten, Inhalte ein- oder auszublenden – zum Beispiel auch Posts, die bestimmte Begriffe enthalten. Es lohnt sich also, sich mit diesen Einstellungen vertraut zu machen und den eigenen Newsfeed einmal aufzuräumen.
3. Aufklären: Du kannst andere Nutzer:innen darüber aufklären, an welche Regeln sie sich auch im digitalen Raum halten müssen. Gleichzeitig gilt natürlich: Don’t feed the trolls. Nicht jeder Kommentar verdient eine Antwort.
von Lea Beiermann
Dive Deeper
Folge #6: Karneval | Produktives Lesen | Suchmaschinengespräche
In Folge 6 von Shift Happens erzählt Miriam von ihrem Versuch, einem Wurfgeschoss auszuweichen, und fragt sich, ob an Karneval wirklich das Gleichheitsprinzip gilt. Dann verraten Miriam und Léa, wie sie mit den vielen Informationen umgehen, die ihnen jeden Tag zugeworfen werden, und warum die neue ChatGPT-Suchmaschine kein ganz großer Wurf ist. Schließlich überrascht Léa Miriam mit einem Produktivitätstool, zu dem man kaum Nein sagen kann.
mit Miriam Meckel & Léa Steinacker
Und zuletzt:
Dies ist das Archiv unseres wöchentlichen Newsletters, dem Brief aus der Zukunft. Gelange hier zur Sammlung, um mehr zu entdecken.