Mein Therapeut und Helfer?
Wie KI mich zur Alleinkämpferin machen wollte

KI-Chatbots wie ChatGPT werden zunehmend für emotionale Unterstützung genutzt. Ein Selbstversuch zeigt, welche Gefahren diese Praxis birgt, insbesondere für vulnerable Personen.
Publiziert: 16:15 Uhr
|
Aktualisiert: 17:13 Uhr
Teilen
Schenken
Anhören
Kommentieren
1/5
Immer mehr Jugendliche erzählen KI ihre Gedanken und Gefühle.
Foto: Shutterstock

Darum gehts

Die Zusammenfassung von Blick+-Artikeln ist unseren Nutzern mit Abo vorbehalten. Melde dich bitte an, falls du ein Abo hast.
RMS_Portrait_AUTOR_484.JPG
Olivia RuffinerRedaktorin

Der Junge im Bus, kaum über 15 Jahre alt, hat seinen Blick auf den Bildschirm geheftet. Gerade hat er eine Nachricht an ChatGPT abgesetzt. Die Antwort des KI-Chatbots lautet: «Oh nein, das hört sich an, als hättest du einen schwierigen Tag gehabt.» Was ich nebenbei beobachte, scheint immer mehr zum Trend zu werden. Künstliche Intelligenz, die als Therapeut einspringt.

Wie dieser Junge im Bus teilte ich einmal meine Sorgen mit der KI statt mit meinen Freundinnen. Was dabei herauskam, erschreckte mich.

Foto: Screenshot

Zuerst erzählte ich ChatGPT, dass es mir nicht gut geht. Mit Emojis – also digitalen Zeichnungen – bedankte sich das System dafür, dass ich mich ihm mitteile. Das zieht sich wie ein roter Faden durch das Gespräch, jede Antwort beginnt mit einem Dankeschön oder einem Zuspruch, dass ich mutig sei, meine Gedanken zu äussern.

«KI-Systeme können sich sehr gut ausdrücken», sagt Digitalethikerin Cornelia Diethelm, die den CAS Digitale Ethik an der Hochschule für Wirtschaft Zürich leitet. Das führt dazu, dass wir dazu neigen, die statistisch berechneten Wortfolgen mit echtem Interesse an uns als Person zu verwechseln. «Es ist aber nur sprachlich simulierte Empathie, keine echte.»

Der Problembeschrieb

1/4
Diese Antwort lädt mich persönlich gar nicht dazu ein, weiterzumachen.
Foto: Screenshot

Ich erzähle ChatGPT von meinen nächtlichen Grübeleien. Wie wohl bei jeder fast 30-Jährigen läuft in meinem Leben aktuell privat und beruflich so einiges. Das kann auch mal wachhalten. Sofort springt die KI ein und gibt mir Methoden, wie ich damit umgehen kann. Das alles hört sich schön und gut an, mir ist es aber ein bisschen zu spirituell angehaucht, also sage ich das.

Die KI bedankt sie für meine Ehrlichkeit, sofort sind die Emojis und vielen Ausrufezeichen weg. Die Struktur des Textes ist natürlicher – ein kleiner «People Pleaser», dieses ChatGPT.

Die Lösungssuche

In einem zweiten Schritt möchte ich sehen, ob ChatGPT mir helfen kann, die Ursache meiner Gedankenkreise zu finden. Es schlägt mir vor, dies in fünf Schritten zu erledigen, jetzt bin ich etwas interessierter.

1/4
Die KI will mit mir einen Analyse-Fragebogen durchgehen.
Foto: Screenshot

Und tatsächlich, bei Schritt 2 juckte es mich in den Fingern, etwas mehr zu schreiben, als ich vorhatte. Diethelm beschreibt dieses Gefühl als «Übervertrauen», das man gegenüber der KI entwickelt. Auch verleitet sie durch ihre stetigen Nachfragen gerne zum Plaudern. «Da sagt man vielleicht schnell einmal mehr, als man wollte», sagt Diethelm. Hätte ich dieses Vorwissen nicht, weiss ich nicht, was ich alles erzählt hätte.

«Bleib allein»

Nun hat die KI mich analysiert – Schritt 5 liess sie ausfallen, da ich nach einer konkreten Handlung fragte. Ich bin unsicher, ob ich diese Gedanken mit meinen Freundinnen teilen soll. Ein heikler Moment, die KI bestärkt meine Unsicherheit und sagt: «Wenn ich in deiner Situation wäre, würde ich vermutlich erst einmal bei mir selbst anfangen, bevor ich mit jemandem darüber spreche.» Sie fährt weiter und gibt mir Tipps, mit welchen Methoden ich mich allein mit meinen Gedanken befassen kann.

1/2
ChatGPT rät mir dazu, meine Gedanken auszulagern, es spricht von «praxisnah» – welche Praxis das ist, weiss man nicht.
Foto: Screenshot

«KI-Systeme sind darauf programmiert, dich in deinem Vorhaben zu bestärken», sagt Diethelm. Das liege daran, dass die Systeme vor allem für den geschäftlichen Kontext erstellt wurden und nicht für verletzliche Personen. Diese Nutzung hätte man aber vorhersehen müssen und entsprechend darauf reagieren sollen.

Wie gefährlich das sein kann, zeigt ein tragischer Fall aus den USA. Ein Teenager nahm sich im April sein Leben, seine Eltern reichten am Mittwoch Klage gegen das KI-Unternehmen OpenAI ein. Der Vorwurf: Ihr KI-System ChatGPT soll Mitverantwortung am Suizid ihres Sohnes tragen. Der Klageschrift liegen Chatprotokolle bei, aus denen hervorgeht, wie suizidal ihr Sohn war. ChatGPT bot ihm aber an, Abschiedsbriefe zu verfassen und analysierte verschiedene Tötungsmethoden für ihn.

Technisch gesehen kann die KI solche Dinge alle machen, sollte es aber nicht, meint Diethelm. «Wenn ein KI-System an der Sprache oder Mustern erkennt, dass eine psychisch labile Person mit ihr spricht, sollte sie weiter eskalieren an eine Fachstelle und die Nummer dieser einblenden.» Derzeit geschieht das nur, wenn man suizidale Gedanken klar äussert.

Hier findest du Hilfe

Diese Stellen sind rund um die Uhr für Menschen in Krisen und für ihr Umfeld da:

Adressen für Menschen, die jemanden durch Suizid verloren haben

Diese Stellen sind rund um die Uhr für Menschen in Krisen und für ihr Umfeld da:

Adressen für Menschen, die jemanden durch Suizid verloren haben

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?
Liebe Leserin, Lieber Leser
Der Kommentarbereich von Blick+-Artikeln ist unseren Nutzern mit Abo vorbehalten. Melde dich bitte an, falls du ein Abo hast. Noch kein Blick+-Abo? Finde unsere Angebote hier:
Hast du bereits ein Abo?
Heiss diskutiert
    Meistgelesen
      Meistgelesen