Anhand von Nutzungsdaten lassen sich Rückschlüsse auf unsere Gesundheit ziehen. Apple arbeitet nun an einem Algorithmus, der Depressionen frühzeitig erkennen soll.
Weltweit haben Kontaktbeschränkungen Menschen zuletzt einsam gemacht. Die Angst, sich zu infizieren oder den Job zu verlieren, hat vielen Sorgen bereitet. Seit Ausbruch der Pandemie ist die Zahl der Menschen, die an Depressions- oder Angstsymptome leiden, stark gestiegen. Doch häufig wird die Erkrankung nicht erkannt, sondern als vorübergehendes Tief abgetan. Schon seit Jahren versuchen Forscher:innen deshalb Technologien zu entwickeln, die entsprechende Symptome frühzeitig erkennen.
Apple arbeitet derzeit an einem Algorithmus, der Depressionen bereits in einem frühen Stadium erkennen soll, berichtete das Wall Street Journal diese Woche. Daten der Videokamera, Tastatur und Audiosensoren des iPhones sowie Daten zu Bewegung und Schlaf könnten Hinweise über unseren Gemütszustand liefern. Sogar die Tippgeschwindigkeit, die Häufigkeit von Tippfehlern und der Inhalt des Geschriebenen sollen gemessen werden.
Forscher:innen der University of California untersuchen diese Daten derzeit nach Mustern, die mit psychischen Erkrankungen in Zusammenhang stehen. Parallel dazu werden die Proband:innen in Form von Fragebogen zu ihren Gefühlen befragt. So wollen die Forscher:innen herausfinden, inwiefern sich über die Daten Rückschlüsse auf unsere Gesundheit ziehen lassen. Ähnliche Untersuchungen finden derzeit auch in Bezug auf Demenz und frühkindlichen Autismus statt.
Noch befinden sich die Forschungsprojekte in einem frühen Stadium. Falls einige Daten mit relevanten psychischen Erkrankungen korrelieren, will Apple diese Signale in eine Funktion umwandeln, die Nutzer:innen warnt und sie auffordert, sich behandeln zu lassen. Ob das Unternehmen dieses Ziel erreicht, hängt jedoch auch vom Vertrauen der Verbraucher:innen ab. Das Ausmaß der erforderlichen Nutzerüberwachung dürfte schließlich bei vielen für Bedenken hinsichtlich des Datenschutzes sorgen. Um diese Bedenken auszuräumen, strebt Apple Algorithmen an, die auf den Geräten der Nutzer arbeiten und die Daten nicht an Apple-Server senden.
Neben Apple möchten zahlreiche Unternehmen KI verwenden, um Depressionen frühzeitig zu diagnostizieren. So kann die Firma „Kintsugi” psychische Probleme an der Stimme erkennen. Dazu reicht schon eine 20-sekündige Audioaufnahme. Entscheidend ist dabei nicht die Sprache, ebensowenig was gesagt wird, sondern wie man es sagt – denn Krankheitssymptome und gesundheitliche Beeinträchtigungen verändern die Stimme.
In den USA setzen Schulen schon heute künstliche Intelligenz ein, um die Kommunikation und Internetsuchen von Schüler:innen auf Anzeichen von Depressionen zu überprüfen. Die Software sucht in der Regel nach bestimmten Schlüsselwörtern auf den von der Schule ausgegebenen Geräten.
Das alles kann helfen, Depressionen frühzeitig zu erkennen, löst aber den Kern des Problems nicht: Die rasant steigende Zahl der psychisch Kranken können die Psychotherapeut:innen längst nicht mehr bedienen. Fast jeder zweite psychisch kranke Mensch muss drei bis neun Monate auf eine Behandlung warten. KI sollte also zunächst dazu eingesetzt werden, die Bedarfsplanung zu reformieren – denn die Therapie selbst kann künstliche Intelligenz bisher nicht übernehmen.
Titelbild: Ant Rozetsky/Unsplash