Wo Algorithmen sind, dort ist Diskriminierung nicht fern. Lässt sich das Risiko der Ungleichbehandlung mit Bewerbungsprozessen vereinbaren?
Eine kürzlich erschienene Studie der Harvard Business School geht davon aus, dass durch den Einsatz künstlicher Intelligenz Millionen Talente frühzeitig von Bewerbungsverfahren ausgeschlossen werden. Gemeinsam mit der Unternehmensberatung Accenture befragten die Forscher:innen Tausende Arbeitnehmer:innen und Führungskräfte in den USA, Großbritannien und Deutschland. Drei Viertel der befragten Unternehmen gaben an, KI-basierte Recruiting-Software einzusetzen.
Künstliche Intelligenz ermöglicht unendlich viele Online-Bewerbungen nach einheitlichen Kriterien zu sortieren, die Eignung von Kandidat:innen in Hinblick auf verschiedenste Parameter zu prüfen und so ohne menschliches Zutun die scheinbar passendsten Personen für eine Position zu ermitteln. Auf diese Weise macht die Technologie ehemals mühsame und langwierige Rekrutierungsprozesse um ein Vielfaches effizienter und soll obendrein objektivere – weil datenbasierte – Entscheidungen treffen.
Wie vorgesehen sortieren die Algorithmen also von vorneherein zahlreiche Bewerbungen aus, die sie nach ihren Metriken für nicht geeignet halten – noch bevor ein menschliches Auge überhaupt einen Blick darauf geworfen hat. Dass diese Form der Automatisierung äußerst problematisch sein kann, ist angesichts der Fülle an Meldungen über Diskriminierung und Ungleichbehandlung durch Algorithmen nicht verwunderlich.
Die Ergebnisse der Studie bestätigen ein Phänomen, von dem Jobsuchende in den USA immer häufiger berichten: Teilweise bewerben sich Menschen über einen längeren Zeitraum auf lächerlich viele Stellen, ohne auch nur eine einzige Rückmeldung zu erhalten. Geht man davon aus, dass ein Großteil der Unternehmen dieselben Metriken nutzt, um die Flut an Online-Bewerbungen zu verarbeiten, ergibt das plötzlich Sinn: Offensichtlich gibt es Menschen, die fortwährend durch das Raster dieser Hiring-Algorithmen fallen.
Dafür geben die Forscher:innen vielfältige Gründe an: Die selbstlernenden Systeme schlössen beispielsweise von spezifischen Fähigkeiten oder dem Erreichen eines Hochschulabschlusses auf bestimmte Eigenschaften, wie Arbeitsmoral und Selbstwirksamkeit. Auch das Auslassen eines Antwortfeldes oder eine beschäftigungsfreie Lücke im Lebenslauf – möge sie noch so gerechtfertigt sein – würde oftmals zu einem kategorischen Ausschluss von Bewerber:innen führen, heißt es in der Studie. Auch deshalb passen große Konzerne wie IBM bereits die Kriterien für die Talentsuche an.
Eine Errungenschaft der vergangenen Jahre besteht unweigerlich darin, dass zunehmend Räume für Personen mit alternativen Lebensläufen und diverseren Lebenswegen geschaffen wurden. Dass Recruiting-Algorithmen solche Fortschritte technologisch konterkarieren, steht symptomatisch für eine Überforderung, wie sie mit der voranschreitenden Verbreitung von KI-Anwendungen immer wieder entsteht.
Nicht umsonst hat die EU-Kommission in ihrem Entwurf einheitlicher Regeln für den Einsatz künstlicher Intelligenz „Software zur Auswertung von Lebensläufen für Einstellungsverfahren“ als KI-Systeme mit hohem Risiko eingestuft. Für solche Systeme sollen künftig äußerst strenge Vorgaben gelten – was angesichts der neuen Erkenntnisse nicht nur sinnnvoll, sondern absolut geboten scheint.
Titelbild: Unsplash