Deutsch English
  • Deutsch English
  • Tech of Tomorrow
  • Morals & Machines
  • Burn to Learn
  • Think Tanks
  • Über uns
  • 24.05.2021
  • Finn Blug

Zurück zum User

Algorithmen sind nicht objektiv. Warum wir manche Entscheidungen besser Menschen überlassen sollten, zeigt ein aktueller Fall bei Twitter. 

Anlässlich der Senatorenwahl im US-Bundesstaat Georgia kursierte im vergangenen Jahr ein Tweet. Er zeigte zwei Aufnahmen aus der Fernsehdebatte der beiden Kontrahent:innen. Zu sehen sind auf den fast identischen Bildern jeweils nebeneinander die weiße Kandidatin der Republikaner, Kelly Loeffler, sowie der schwarze Kandidat der Demokraten, Raphael Warnock. Der einzige Unterschied zwischen den Aufnahmen: Die Reihenfolge der beiden dargestellten Personen. Stieß man jedoch auf den Tweet, während man durch die Twitter-Timeline scrollte, erschien in der Vorschau-Anzeige der Aufnahmen zweimal der Bildausschnitt mit der weißen Republikanerin Loeffler – ihren schwarzen Kontrahenten Warnock hingegen blendete Twitter in der Vorschau komplett aus.

Für viele Twitter-Nutzer:innen war dieser Fall ein weiterer Beweis für die diskriminierenden Algorithmen, mit denen die großen sozialen Netzwerke operieren. Nachdem sich seit dem Herbst 2020 konkrete Beschwerden zum automatischen Bildzuschnitt häuften, versprach man bei Twitter, der Sache nachzugehen.

Vergangenen Mittwoch veröffentlichte das META Team, die Twitter-interne Task Force für maschinelles Lernen, Ethik und algorithmische Transparenz, die Erkenntnisse der Untersuchung: Tatsächlich bevorzuge der zuständige Machine-Learning-Algorithmus bestimmte Bildausschnitte auf eine diskriminierende Weise, wie die Datenwissenschaftlerin und Ethikerin Rumman Chowdhury in einem detaillierten Beitrag auf dem Twitter-Blog mitteilte. Beim Vergleich zwischen Männern und Frauen ergab sich eine Differenz von acht Prozent zur demografischen Verteilung zugunsten von Frauen. In Bezug auf die Hautfarbe lag die Differenz bei vier Prozent zugunsten weißer Personen.

Den Vorwurf, dass der Algorithmus einen sexualisierenden, männlichen Blick („male-gaze“) verfolge, habe man in der Studie jedoch nicht bestätigen können, so Chowdhury. Dass der Algorithmus teilweise Bildausschnitte bevorzuge, in denen der Brustbereich oder die Beine einer Person zu sehen seien, habe andere Gründe. Gäbe es keine Gesichter auf dem Bild, suche sich der Algorithmus andere Anhaltspunkte, wie beispielsweise die Nummer auf einem Sporttrikot.

„Die Entscheidung, wie man ein Bild zuschneidet, ist eine Entscheidung, die am besten von Menschen getroffen wird“, beschreibt Rumman Chowdhury die Schlussfolgerungen aus der Studie. Konkret bedeutet das: Twitter-Nutzer:innen werden künftig eine Vorschau des angehängten Bildes sehen und so selbst überprüfen können, wie ihr Tweet angezeigt wird.

Damit beweist man bei Twitter Rückgrat – der transparente Umgang mit dem Problem und die konsequente Schlussfolgerung sind unüblich für das sonst eher unkritische Selbstverständnis der großen Tech-Unternehmen. Die Erkenntnis, dass manche Entscheidungen doch wieder besser bei den Nutzer:innen aufgehoben wären, könnte jedenfalls Schule machen – und liegt wieder näher am pluralistischen und demokratischen Grundgedanken, mit dem die Netzwerke einst gestartet sind.

Titelbild: Akshar Dave/Unsplash

Das könnte dir auch gefallen

  • New Work
  • 01.12.2021

Das Jahr der Arbeitnehmer beginnt!

Womöglich beginnt 2022 der große Wechselreigen am Arbeitsmarkt. Das scheint bei den Unternehmen jedoch noch nicht ganz angekommen zu sein.

  • Tech of Tomorrow
  • 29.07.2021

Drei Patente der Tech-Riesen

Kaum ein Sektor entwickelt neue Produkte so rasant wie die Tech-Branche. Woran tüfteln die großen Konzerne aktuell?

  • Streaming
  • 30.11.2021

„Netflix sucht immer noch das Flair des Kinos“

Im Interview erklärt der Filmproduzent Maximilian Leo, warum es den Streamingdiensten nicht nur auf die nackten Abrufzahlen ankommt und was das für seine Arbeit bedeutet.

© 2022 ada
Impressum
Datenschutz