Deutsch English
  • Deutsch English
  • Tech of Tomorrow
  • Morals & Machines
  • Burn to Learn
  • Think Tanks
  • Über uns
  • 15.03.2023
  • Lea Beiermann, Finn Blug

Kreative Kontrolle: Die Kunst der KI-Prüfung

In diesem Brief aus der Zukunft geht es um Vorurteile von KI // Generative KI entzerren // Shift Happens #8.

Wie viele Machine-Learning-Expert:innen braucht man, um eine Glühbirne zu wechseln? Nur eine:n, aber eine Million Glühbirnen, um das Wechseln zu erlernen. Und wie viele braucht man dann, um eine LED-Leuchte zu wechseln? Unmöglich, denn LED-Leuchten waren nicht Teil der Trainingsdaten. Was hier als schlechter Witz daherkommt, ist im Grunde nicht ganz falsch: Mit Millionen Daten gefüttert, können Machine-Learning-Modelle schnell Entscheidungen fällen. Es sei denn, sie treffen auf unbekannte Probleme. Im vergangenen Jahr etwa zeigten KI-Forscher:innen, dass sich Software, die professionelle Go-Spieler:innen schlägt, durch amateurhafte Spielzüge austricksen lässt. 

Maschinelles Lernen schließt von der Vergangenheit auf die Zukunft und ist daher nicht nur ab und an von asiatischen Brettspielen überfordert, sondern reproduziert auch „biases“ – Verzerrungen und Vorurteile, die in den Trainingsdaten angelegt sind. Das jüngste Beispiel dafür ist eine Software, die in Rotterdam eingesetzt wurde, um Sozialbetrug aufzudecken. Das System teilte Sozialhilfeempfänger:innen in Risikoklassen ein: Es ging davon aus, dass junge, alleinerziehende Mütter recht wahrscheinliche Betrüger:innen seien und sorgte dafür, dass diese Frauen zur Zielscheibe behördlicher Investigation wurden.

Die Software wurde in einem aufwendigen Verfahren durch Journalist:innen von Wired und Lighthouse Reports untersucht, die in der vergangenen Woche darüber berichteten. Solche Prüfverfahren werden umso wichtiger, je mehr Entscheidungen in unserem Leben von KI getroffen werden. Eine Gruppe von Aktivist:innen um KI-Ethikerin Rumman Chowdhury – die zwischenzeitlich Direktorin von Twitters Team für Ethik, Transparenz und Verantwortung war, bis das gesamte Team von Elon Musk aufgelöst wurde – rief dazu Ende 2022 die Initiative „Bias Buccaneers“ ins Leben. Die „Vorurteils-Pirat:innen“ werden nun regelmäßig zu Crowdsourcing-Projekten aufrufen und gemeinsam Algorithmen untersuchen. 

Die Pirat:innen, ausgerüstet mit virtuellem Papagei, Schiff und Schatzkiste, geben sich viel Mühe, KI-Auditierung wie einen großen Spaß aussehen zu lassen. Doch in Wirklichkeit sind solche Prüfverfahren für Nichteingeweihte schwer zu verstehen. Die Informatikerin und Künstlerin Joy Buolamwini sieht die Zukunft der demokratischen KI-Prüfung deshalb in der Übersetzung von Algorithmen in Kunst. In ihrem Projekt „AI, Ain’t I A Woman?“ macht Buolamwini zum Beispiel künstlerisch erfahrbar, was es bedeutet, wenn schwarze Frauen von KI nicht als Frauen identifiziert werden. Wir freuen uns sehr, dass Dr. Joy Buolamwini erste Preisträgerin unseres Morals & Machines Preises ist – und wir damit einer der wichtigsten Stimmen im Kampf für demokratische und pluralistische Technologie eine Bühne geben dürfen.

von Lea Beiermann


Personal Growth

Die Antworten generativer KI-Tools „entzerren“


Seit Jahren weisen Expert:innen wie Joy Buolamwini auf die Verzerrungen und Verfehlungen bei der Implementierung von Künstlicher Intelligenz hin. Doch der Hype um neue KI-Tools und der damit einhergehende Innovationsdruck der großen Tech-Unternehmen verhindert meist eine angemessene Auseinandersetzung, bevor solche Anwendungen auf den Markt kommen. Das jüngste Beispiel dafür ist generative KI.

Wer Tools wie ChatGPT, Bing AI oder Stable Diffusion nutzt, sollte sich dieser Unzulänglichkeiten also bewusst sein. Darüber hinaus kann man aber auch bei der konkreten Bedienung den „Bias“ der Systeme berücksichtigen: Um die Antworten von Chatbots auf Verzerrungen hin zu überprüfen, solltest du die eingegebenen Befehle regelmäßig minimal anpassen. Zum Beispiel, indem du das Geschlecht, die Religion oder die Ethnie der Adressat:innen oder Protagonist:innen des generierten Textes änderst. So kannst du nachvollziehen, welche Auswirkungendiese Faktoren auf die  Antworten haben. Dasselbe gilt für die Bedienung von KI-Bildgeneratoren, die regelmäßig äußerst stereotype Darstellungen von Menschen produzieren. Schon minimale Anpassungen können da helfen.

Solche Perspektivwechsel können übrigens auch in unserer tatsächlichen Lebensrealität dabei helfen, persönliche oder gesellschaftliche Verzerrungen zu reflektieren und das eigene Verhalten anzupassen.

von Finn Blug



Dive Deeper

Folge #8: Okapis | Schlaftracking | FREItage


Das Okapi, ein fabelhafte Tier, spielt eine zentrale Rolle in Mariana Lekys Roman „Was man von hier aus sehen kann". In der achten Folge von #ShiftHappens sprechen Miriam und Léa über diese wunderbare Geschichte, die kürzlich verfilmt wurde - und was sie an der Erzählung so bewegend finden. Außerdem geht es um die Wichtigkeit von gutem Schlaf und wie ein ganz besonderes Schmuckstück dabei helfen kann, besser zu schlafen. Und schließlich stellen Miriam und Léa ihre Initiative des #FFFF vor, der allen ada Mitarbeitenden jeden Monat einen freien Freitag beschert.

mit Miriam Meckel & Léa Steinacker

Jetzt hören

 

Und zuletzt:

Joy Buolamwini war schon 2018 Speakerin auf der Morals & Machines und hat mit uns über die Risiken von Gesichtserkennungs-KI gesprochen



Dies ist das Archiv unseres wöchentlichen Newsletters, dem Brief aus der Zukunft. Gelange hier zur Sammlung, um mehr zu entdecken.

Das könnte dir auch gefallen

  • Made in China
  • 29.09.2021

Der staatliche Spielverderber

Mit einmaliger Rasanz ist die E-Sport-Branche in China an die Weltspitze geklettert. Nach dem vielleicht strengsten Online-Gaming-Verbot der Welt steht die Branche vor dem Aus. 

  • KI
  • 11.06.2021

„Vielen Unternehmen fehlt Sensibilität“

Carla Hustedt erforscht die gesellschaftlichen Auswirkungen der Digitalisierung. Sie erklärt, wie die Polizei mit Algorithmen Verbrechen vorbeugen will – und was das bringt.

  • Space
  • 13.05.2021

Die Zukunft (f)liegt über uns

Digitale Innovationen beflügeln die Space-Industrie. Der Wettlauf um die erste Reihe im All ist eröffnet.

© 2023 ada
Impressum
Datenschutz