Wie viel Regulierung ist zu viel und gefährdet die Innovationskraft Europas? Die Debatte um die EU-Rahmenbedingungen für KI-Anwendungen geht in die nächste Runde.
Vor wenigen Tagen ist Duolingo an die Börse gegangen. Das Unternehmen hinter der gleichnamigen Sprachlernapp, die sich in Zeiten von Lockdowns und Homeschooling großer Beliebtheit erfreut, wird mit etwa fünf Milliarden Dollar bewertet.
Doch in der EU könnte Duolingo möglicherweise in Zukunft nicht mehr alle Anwendungen anbieten. Das jedenfalls argumentiert Andrew McAfee, Forscher am Massachusetts Institute of Technology, in einem Gastbeitrag für die Financial Times.
Grund ist die Funktionsweise eines Sprachtests, den Duolingo anbietet. Mit diesem können sich Teilnehmer:innen ihre Englischkenntnisse zertifizieren lassen – das Ergebnis wird von vielen namhaften Universitäten und Organisationen weltweit anerkannt. Der Test könnte jedoch künftig auf Grundlage der geplanten EU-Regulierung künstlicher Intelligenz als „hochriskantes KI-System“ eingeschätzt werden, so McAfee. Denn die Software setzt KI zur Personalisierung ein – etwa, um die Testfragen an das Sprachniveau der Nutzer:innen anzupassen – sowie zur Bewertung der Ergebnisse.
Systeme, die KI für „die Bewertung der Teilnehmer an üblicherweise für die Zulassung zu Bildungseinrichtungen erforderlichen Tests“ verwenden, würden in die „Hochrisikokategorie“ fallen, die der EU-Vorschlag vorsieht. Anbieter von Hochrisikosystemen müssten künftig strenge Auflagen zur Datenverwaltung, Transparenz, Kontrolle, Robustheit, Genauigkeit und Sicherheit ihrer Software erfüllen – noch bevor sie diese auf den Markt bringen. McAfee warnt in seinem Beitrag davor, dass eine derart strikte Regulierung Innovation in der EU verhindern würde.
Das ist keine Einzelmeinung. Das Center vor Data Innovation, ein der Tech-Branche nahestehender Think Tank mit Sitz in Washington und Brüssel, hat vor kurzem berechnet, dass der vorgeschlagene „Artificial Intelligence Act“ der europäischen Wirtschaft in den nächsten fünf Jahren 31 Milliarden Euro kosten und die KI-Investitionen um fast 20 Prozent reduzieren könnte. Einem kleinen oder mittleren Unternehmen in der EU, das ein risikoreiches KI-System einsetzt, könnten durch die Einhaltung der Vorschriften Kosten in Höhe von bis zu 400.000 Euro entstehen, was zu einem Gewinnrückgang von 40 Prozent führen würde.
Diese Warnungen erinnern an die Nervosität vor dem Inkrafttreten der europäischen Datenschutzgrundverordnung (DSGVO) 2018. Und tatsächlich zeigen Studien, dass die Einführung der DSGVO sich zunächst negativ auf die Investitionen in Europa auswirkte. Gleichzeitig hat sie vielen Gesetzgebern weltweit als Vorbild gedient – und den Schutz und die Sicherheit von Konsument:innendaten verbessert.
Genau so könnte die geplante KI-Regulierung in Europa auch andere Staaten dazu bewegen, den Einsatz künstlicher Intelligenz in sensiblen Bereichen zu überdenken. Wie hoch wären die sozialen Kosten, wenn Zulassungstests, Bewerbungsverfahren oder die Kreditwürdigkeit von Personen weiterhin weitgehend unreguliert von Algorithmen bestimmt würden?
Es wird noch einige Jahre dauern, bis der „Artificial Intelligence Act“ tatsächlich in Kraft tritt. Die EU wird in der Zwischenzeit eine Lösung dafür finden müssen, wie eine konsequente Beschränkung des Tech-Sektors zugunsten der Bürger:innen gelingen kann – ohne dabei die Innovationskraft in Europa zu gefährden.
Titelbild: Markus Spiske/Unsplash