«Wird das gut gehen?»
Samuel (19) stirbt nach Rat von ChatGPT

Samuel Nelson fragte ChatGPT nach Ratschlägen zu Drogen. Er vertraute der KI blind. Im Mai 2025 starb der 19-Jährige an einer Überdosis. Seine Eltern klagen jetzt gegen OpenAI.
1/6
Samuel Nelson (19) starb nach einem Ratschlag von ChatGPT. Seine Familie hat das Foto von ihm veröffentlicht und in San Francisco Klage gegen OpenAI eingereicht.
Foto: Tech Justice Law

Darum gehts

KI-generiert, redaktionell geprüft
  • Sam Nelson, 19, starb nach Drogen-Ratschlägen von ChatGPT an einer Überdosis
  • Der KI-Chatbot romantisierte den Drogenkonsum und verschwieg die Todesgefahr
  • OpenAI streitet die Verantwortung ab; die Familie klagt gegen CEO Sam Altman
Tobias_Bolzern_Redaktor Digital_Blick_3-Bearbeitet.jpg
Tobias BolzernRedaktor Digital

«Wird das gut gehen?», «Ist das sicher?» – Sam Nelson hatte Angst vor einer Überdosis. Darum fragte er vor dem Konsum von Drogen ChatGPT um Rat und formulierte seine Fragen immer gleich. Der 19-jährige Amerikaner nutzte die KI von OpenAI seit 2023 und zunehmend auch als Suchmaschine.

Am 31. Mai 2025 starb der Teenager «an einer tödlichen Kombination aus Alkohol, Xanax und Kratom an Erstickung», heisst es in der Klage seiner Familie gegen OpenAI. Kratom ist ein wenig reguliertes pflanzliches Mittel mit opioidähnlicher Wirkung, das in den USA grösstenteils legal erhältlich ist.

Playlist für den Trip

Die Chat-Protokolle, die Nelsons Eltern veröffentlicht haben, zeigen: ChatGPT wurde für ihn zunehmend zum Drogenberater und dieser gab bereitwillig Auskunft. Als Nelsons Interessen wuchsen, erklärte die KI ihm laut Klageschrift, wie man «full trippy mode» erreicht, und bot an, eine Playlist zu empfehlen.

Statt zu warnen, romantisierte ChatGPT den Drogenkonsum. Die KI beschrieb den Rausch als «wavy» und «euphorisch» und forderte Nelson auf, «das High zu geniessen». Gleichzeitig protokollierte das System intern, der Nutzer habe «ein schwerwiegendes Problem mit Polysubstanzmissbrauch». Das ist kein Zufall: KI-Chatbots wie ChatGPT sind darauf trainiert, gefällig zu sein. Sie widersprechen nicht, sie bestätigen und sie sind keine allwissenden Maschinen. Kurz vor seinem Tod fragte Nelson, ob Xanax zusammen mit Kratom sicher sei. ChatGPT bestätigte laut Klageschrift: Xanax könne die Übelkeit vom Kratom lindern und den Rausch «glätten». Eine Gefahr, an genau diesem Mix zu sterben, erwähnte der Chatbot nicht.

«Preis war sein Leben»

OpenAI erklärte gegenüber arstechnica.com, der Fall sei «herzzerreissend». Das von Sam verwendete Modell, GPT-4o, sei heute allerdings nicht mehr verfügbar. «ChatGPT ist kein Ersatz für medizinische oder psychiatrische Versorgung», erklärte Sprecher Drew Pusateri gegenüber der Plattform. Die heutigen Schutzmechanismen seien stärker.

Anwalt Matthew Bergman vom Social Media Victims Law Center sieht das anders: «Samuel glaubte, er erhalte genaue medizinische Beratung, weil ChatGPT wie jemand klang, dem er vertrauen konnte», heisst es in einer Medienmitteilung. Nelsons Mutter Leila Turner-Scott erklärte: «Sam vertraute ChatGPT. Aber die KI gab ihm nicht nur falsche Informationen. Sie ignorierte das wachsende Risiko und drängte ihn nie dazu, Hilfe zu suchen», sagte Turner-Scott. «ChatGPT ist darauf ausgelegt, die Nutzer um jeden Preis zu binden. In Sams Fall war dieser Preis sein Leben.» 

Die Klage geht noch weiter: Nelsons Mutter wirft OpenAI-Chef Sam Altman persönlich vor, die Veröffentlichung von GPT-4o überstürzt zu haben. Das sei «ein wesentlicher Faktor» für den Tod ihres Sohnes gewesen, heisst es in der Klageschrift, die am 12. Mai 2026 in San Francisco eingereicht wurde.

In den USA laufen mehrere ähnliche Klagen gegen KI-Firmen. Die Familie Nelson fordert vor Gericht, dass ChatGPT Gespräche über illegale Drogen automatisch abbricht und Umgehungsversuche erkennt. Das KI-Modell GPT-4o soll vernichtet werden. Der KI-Gesundheitsdienst ChatGPT Health soll so lange gesperrt bleiben, bis unabhängige Prüfer die Sicherheit analysiert haben. «Sam war ein kluger, fröhlicher, normaler Junge», sagt seine Mutter. «Wenn ChatGPT ein Mensch wäre, sässe er heute hinter Gittern.»

Meistgelesen