Deutsch English
  • Deutsch English
  • Tech of Tomorrow
  • Morals & Machines
  • Burn to Learn
  • Think Tanks
  • Über uns
  • 01.03.2023
  • Lea Beiermann

Beschränkte Haftung: Wie Online-Plattformen Inhalte moderieren

In diesem Brief aus der Zukunft geht es um Content Moderation // Newsfeed anpassen// Shift Happens #6.

Nur sechsundzwanzig Worte sind es, die das Internet zu dem gemacht haben, was es heute ist, schreibt Jeff Kosseff, Journalist und Professor für Cybersecurity-Recht, in seinem Buch „The Twenty-Six Words That Created the Internet.“ So klingt der trockene Gesetzestext, auf den sich Kosseff bezieht, gleich viel interessanter – und interessant ist er auch, wenn nicht sogar brisant: „Section 230“ des amerikanischen Communications Decency Act von 1996 legt in sechsundzwanzig Worten fest, dass Online-Plattformen nicht für Inhalte haftbar sind, die von ihren User:innen geteilt werden. Der springende Punkt der Argumentation: Plattformen würden Inhalte nur verteilen, nicht produzieren.

Dieser Grundsatz, der ganz entscheidend zum rasanten Wachstum digitaler Plattformen beigetragen hat, wird vor dem amerikanischen Supreme Court nun infrage gestellt. Am vergangenen Dienstag befassten sich die Richter:innen mit der Klage einer Familie gegen das zu Google gehörende YouTube: Die Videoplattform habe durch ihre Empfehlungsalgorithmen dazu beigetragen, islamistische Hassvideos zu verbreiten, und so die IS-Terroristen radikalisiert, die die Tochter der Familie 2015 in Paris töteten.

Es ist nicht nur diese eine Klage, sondern eine ganze Reihe von Vorfällen, die die Unzulänglichkeit der Inhaltsmoderation auf digitalen Plattformen, und ihre tragischen Konsequenzen, sehr deutlich machen. Gegen Meta wurde 2021 und 2022 geklagt, weil hasserfüllte Facebook-Kommentare – in Sprachen, die die Facebook-Moderator:innen teilweise gar nicht verstanden – sowohl den äthiopischen Bürgerkrieg als auch die grausame Verfolgung der Rohingya befeuerten. Vor wenigen Wochen erhielt außerdem der Hype um ChatGPT einen deutlichen Dämpfer, als das Time Magazine berichtete, dass der Chatbot nur so freundlich wirkt, weil kenianische Arbeiter:innen die furchtbarsten Inhalte bereits in Handarbeit aussortiert haben.

Wer letztlich die Verantwortung für digitale Inhalte übernimmt, bleibt eine schwierige Frage – nicht nur in den USA, sondern auch in der EU, die Plattformen durch den Digital Services Act 2022 bereits mehr Verantwortung auferlegt hat. Besonders interessant an der Klage, die nun vor dem Supreme Court verhandelt wird, ist die Argumentation der Anklage, dass auch Empfehlungsalgorithmen Inhalte und Plattformen somit haftbar seien. Das mag zunächst wenig überzeugend klingen. Doch schaut man sich an, wie etwa die Integration von ChatGPT in Suchmaschinen die Grenze zwischen der reinen Darstellung und Produktion von Inhalten immer weiter verschiebt, könnte man auch sagen: Wenn sich Plattformen wie Content Producer verhalten, müssen sie damit rechnen, dass sie auch so behandelt werden.

von Lea Beiermann



Personal Growth

Den eigenen Newsfeed moderieren


Eine große Herausforderung der Inhaltsmoderation ist, dass sie sich nur schwer skalieren lässt. Menschliche Moderator:innen werden zwar häufig von KI unterstützt, doch ganz automatisieren lässt sich das Aussortieren anstößiger Inhalte bisher nicht.

Viele Plattformen setzen daher auf eine dezentrale Inhaltsmoderation: User:innen werden selbst zu Moderator:innen, indem sie Inhalte melden oder – so etwa auf dem amerikanischen Twitter – in den richtigen Kontext setzen. Bekannt wurde diese Funktion spätestens, als Ende 2022 ein Tweet von Elon Musk, zu diesem Zeitpunkt schon Twitter-Besitzer, von User:innen seiner eigenen Plattform mit einem Warnhinweis versehen wurde.

Wenn du den Content, den du in deinen eigenen Feeds siehst, besser moderieren willst, könntest du auf diese Weise damit anfangen:

1. Melden: Die meisten Plattformen bieten Nutzer:innen die Möglichkeit, unangemessene Inhalte zu melden, um das digitale Miteinander angenehmer für alle zu machen. Manchmal kannst du Inhalte auch um zusätzliche Informationen ergänzen, damit andere sie besser einordnen können.

2. Blockieren oder Stummschalten: Du kannst User:innen, die sich unangemessen verhalten, blockieren oder stummschalten. Manche Plattformen bieten eine ganze Reihe von Möglichkeiten, Inhalte ein- oder auszublenden – zum Beispiel auch Posts, die bestimmte Begriffe enthalten. Es lohnt sich also, sich mit diesen Einstellungen vertraut zu machen und den eigenen Newsfeed einmal aufzuräumen.

3. Aufklären: Du kannst andere Nutzer:innen darüber aufklären, an welche Regeln sie sich auch im digitalen Raum halten müssen. Gleichzeitig gilt natürlich: Don’t feed the trolls. Nicht jeder Kommentar verdient eine Antwort.

von Lea Beiermann



Dive Deeper

Folge #6: Karneval | Produktives Lesen | Suchmaschinengespräche


In Folge 6 von Shift Happens erzählt Miriam von ihrem Versuch, einem Wurfgeschoss auszuweichen, und fragt sich, ob an Karneval wirklich das Gleichheitsprinzip gilt. Dann verraten Miriam und Léa, wie sie mit den vielen Informationen umgehen, die ihnen jeden Tag zugeworfen werden, und warum die neue ChatGPT-Suchmaschine kein ganz großer Wurf ist. Schließlich überrascht Léa Miriam mit einem Produktivitätstool, zu dem man kaum Nein sagen kann.

mit Miriam Meckel & Léa Steinacker

Jetzt hören


Und zuletzt:


In diesem TEDx-Talk erklärt Gianluca Demartini, Professor für Data Science, was Content-Moderator:innen machen - und wie sich ihre Arbeitsbedingungen verbessern lassen.



Dies ist das Archiv unseres wöchentlichen Newsletters, dem Brief aus der Zukunft. Gelange hier zur Sammlung, um mehr zu entdecken.

Das könnte dir auch gefallen

  • Made in China
  • 16.06.2021

Chinas Anti-Bitcoin

Nach Jahren der Duldung geht Peking nun gegen seine Bitcoin-Schürfer:innen vor – und führt gleichzeitig die weltweit erste staatliche Digitalwährung ein.

  • Innovation
  • 15.10.2021

Ein Paradebeispiel für Deepfake Business

Das amerikanische Unternehmen wollte die Medienbranche revolutionieren und den Journalismus neu erfinden. Ozy Media war aber nur die Attrappe eines Geschäftsmodells.

  • Digital Warriors
  • 29.06.2022

Sexismus und Hass in der Tech- Branche – sie prangert ihn an

Von Politik und Wirtschaft werden Google und Co. selten in die Schranken gewiesen. Die Angestellten der Tech-Konzerne treten da schon anders auf. Wie Meredith Whittaker, Expertin für künstliche Intelligenz.

© 2023 ada
Impressum
Datenschutz