Ist Apples Kinderschutz-Feature ein Einfallstor für Überwachung? Datenschützer:innen äußern erhebliche Bedenken an einem möglichen Missbrauch der neuen Funktion.
Als Apple in der vergangenen Woche konkrete Schritte ankündigte, mit denen man verstärkt gegen Abbildungen von sexualisierter Gewalt an Kindern auf den eigenen Geräten vorgehen möchte, brach ein Sturm der Entrüstung los. Grund dafür ist weniger das Vorhaben an sich, sondern seine technische Umsetzung.
Worum geht es? Die Apple-Entwickler:innen sehen mehrere Änderungen vor, die zunächst nur für US-amerikanische Geräte greifen: In der Messaging-Anwendung iMessages lässt sich künftig eine Kindersicherung aktivieren, die sexuell eindeutige Bilder für Nutzer:innen unter 18 Jahren unkenntlich macht und Eltern benachrichtigt, sobald ein Kind unter zwölf Jahren solche Bilder ansieht oder verschickt. Außerdem führt man eine Funktion ein, bei der alle in der Cloud befindlichen Bilder gescannt und in Frage kommende Inhalte an Apple-Moderatoren gemeldet werden. Diese können die Fälle schließlich an zuständige Behörden weiterleiten.
Bei Apple reagierte man damit auf schon länger vernehmbare Kritik, wonach man im Vergleich zu den anderen Tech-Konkurrenten kaum fragwürdige Inhalte melden würde. Das lag bis zuletzt vor allem an den eigenen Privatsphäre-Maßstäben, wie der konsequenten Ende-zu-Ende-Verschlüsselung von Nachrichten. Dass man in Cupertino nun offensichtlich bereit ist, an diesen Grundsätzen zu rütteln, hat eine kontroverse Debatte entfacht.
Nicht weil die Absicht hinter den Änderungen in Frage steht – der Zugang zu Abbildungen von sexualisierter Gewalt an Kindern ist eine grausame und unentschuldbare Schattenseite der digitalen Realität, gegen die unweigerlich vorgegangen werden muss – sondern weil Apple laut Kritiker:innen durch das lokale Scanning auf den Geräten eine Hintertür in die eigenen Systeme einbaue, die künftig auch für andere Zwecke missbraucht werden könnte.
Dazu sei lediglich „eine Erweiterung der Machine Learning Parameter (…) oder eine Änderung der Konfigurationsflags“ nötig, um nicht nur die Konten von Kindern, sondern von allen zu durchsuchen, heißt es in einer ersten Reaktion der US-Non-Profit-Organisation für digitale Bürgerrechte, der Electronic Frontier Foundation (EFF). Wenn Regierungen gegen kritische Inhalte oder beispielsweise gezielt die LGBTQ-Community vorgehen wollten, wie einige autoritäre Regime das bereits tun, seien die Möglichkeiten dazu im System bereits angelegt. Kritik kam sogar aus den eigenen Reihen: Über 800 Beschwerdenachrichten haben Apple-Mitarbeiter:innen in einen internen Slack-Channel gesendet, wie Reuters berichtet.
In der Debatte werden gleich mehrere, technopolitische Konfliktlinien unserer Gegenwart virulent: Zunächst führen uns die Änderungen wieder vor Augen, wie fortgeschritten die technischen Möglichkeiten sind, mit denen sich unser postdigitaler, also mit dem Digitalen hochgradig verschränkter Alltag überwachen lässt. Zudem wird deutlich, dass der Grat zwischen dem Eingriff in die Privatsphäre und dem Aufspüren problematischer Inhalte weiterhin schmäler kaum sein könnte. Und nicht zuletzt stellt sich die Frage: Wem möchten wir für diese schicksalhafte Gratwanderung eigentlich den Kompass geben? Sollten Unternehmen wie Apple solche Entscheidungen tatsächlich selbst treffen können?
Insofern ist die aktuelle Debatte, die nahe an der konkreten technischen Umsetzung und maßgeblich mit zivilgesellschaftlichen Akteuren geführt wird, äußerst wichtig. Mit Blick auf die Regierungen von Ungarn oder Polen sollte man sich in Europa jedenfalls frühzeitig Gedanken machen, wie man mit den entsprechenden Änderungen politisch umgehen würde, sollten diese auch hier Anwendung finden.
Titelbild: Unsplash