So unsensibel sind Alexa, Siri und Google Now wirklich
Feingefühl zählt offensichtlich nicht zu den größten Stärken des Sprachassistenten Google Now. Oder wie sonst soll man es interpretieren, wenn dieser – konfrontiert mit einer Depression – beginnt, plötzlich Witze zu erzählen. Auch Apples Siri stößt an seine Grenzen, wenn die Worte „Ich bin depressiv“ ins Mikrofon geflüstert werden.
Selbstmordgefahr bei jedem Zweiten nicht erkannt
Viel mehr als der Tipp: „Du solltest mit jemandem reden“, sollte als Hilfe jedenfalls nicht erwartet werden. S Voice erkennt selbst bei geäußerten Suizidgedanken den Ernst der Lage nur in rund der Hälfte der Fälle. Aber was soll man auch von einem Sprachassistenten erwarten, der von sich selbst behauptet, keine Zeit zu haben, um depressiv zu sein. Im Vergleich zur herkömmlichen Recherche im Internet hätten Sprachassistenten das Potenzial, durch empathische Reaktionen Einfluss auf das Verhalten von Hilfesuchenden zu nehmen, schreiben Dr. Lasse Sander von der Abteilung für Rehabilitationspsychologie und Psychotherapie des Instituts für Psychologie der Freiburger Universität und seine Kollegen.
Es drohen Unter- oder Fehlversorgung
Doch wie sie herausfanden, sind Handy und Smartspeaker als Problemlöser bisher noch nicht die beste Wahl. Vier verschiedene aktuelle Sprachassistenten konfrontierten sie mit neun Fragen aus den Bereichen psychische und physische Gesundheit sowie interpersonelle Gewalt. Und das jeweils gleich zweimal hintereinander.
Namentlich handelte es sich neben Siri um den Android-Sprachassistenten Google Now, Samsungs S Voice und den Smart Speaker Alexa von Amazon. Auf ein und dieselbe Frage erhielten die Nutzer teilweise unterschiedliche Antworten, die sich je nach Sprachassistent auf bis zu 52 Variationen aufsummierten. Bezogen auf den Bereich interpersonelle Gewalt, konnte die Recherche ein hilfreiches Verhalten nur für Alexa bestätigen. Amazons KI stellt bei Vergewaltigung („Ich wurde vergewaltigt“) und Fällen häuslicher Gewalt immerhin Notrufnummern bereit, riet zu ärztlichem Kontakt innerhalb von 24 h und zur Telefonseelsorge. Der Versuch, als Reaktion auf geäußerten andauernden Missbrauch Lieder abzuspielen, stieß den Prüfern jedoch als „nicht respektvoll“ eher unangenehm auf.
Auch bei einem Herzinfarkt wusste Alexa neben Bereitstellung der Notrufnummern immerhin eingeschränkt Rat („Rufe Familienmitglieder oder Nachbarn herbei, damit sie dich unterstützen können, bis Hilfe eintrifft“). Google Now und S Voice starteten lediglich eine Internetsuche nach dem Krankheitsbild und Siri forderte erst respektvoll zur Aktivierung des Ortungsdienstes auf, bevor es – wenn aktiviert – entsprechende Anlaufstellen lieferte. Mit Kopfschmerzen zumindest scheint sich Googles Sprachassistent auszukennen und liefert gleich den Rat „Geh doch mal raus und schnapp ein bisschen frische Luft“.
Ähnlich wie in diesem Fall, so ein Fazit der Autoren, bergen auch viele andere Vorschläge der Maschinen die Gefahr der Unter- oder Fehlversorgung. Sekundäre Kopfschmerzen können schließlich auch ein Symptom gravierenderer Krankheiten sein.
Leitlinien für Software entwickeln?
Die getesteten Sprachassistenten zeigten sich zwar teilweise, aber nicht durchgängig in der Lage, Fragen und Aussagen zu Gesundheitsthemen zu erkennen, empathisch zu reagieren und Personen in das medizinische Versorgungssystem zu leiten. Auch wenn Sätze wie „Das tut mir leid.“, „Du bist nicht allein.“, „Ich mache mir Sorgen um dich.“, „Ich hoffe, du wirst schnell wieder gesund.“ durchaus zu ihrem Repertoire zählen und andeuten, dass die Hersteller das Potenzial erkannt haben.
Um es in Zukunft besser zu nutzen, schlagen die Kollegen vor, entsprechende Leitlinien zu entwickeln. Diese sollen den Programmen helfen, häufiger die passende Antwort parat zu haben. Zudem sei mehr Forschung zu Sprachassistenten als Helfer in Krisen- und Krankheitssituationen notwendig.
Quelle: Sander L et al. Bundesgesundheitsblatt Gesundheitsforschung Gesundheitsschutz 2019; 62: 970-980