Spektakuläre Ermittlungen – die Polizei liest mit
So verraten sich Verbrecher im KI-Chat selbst

Mordfantasien, Beichten, heikle Prompts: Internationale Fälle zeigen, wie sich Täter in KI-Chats selbst verraten – und wie Ermittler diese digitalen Spuren nutzen.
Kommentieren
1/6
Was wie ein privater Chat wirkt, kann später als digitale Spur ausgewertet werden.
Foto: Keystone

Darum gehts

KI-generiert, redaktionell geprüft
  • Ermittler nutzen KI-Daten zur Aufklärung von Straftaten, Fälle zeigen das Ausmass
  • Deutscher Täter offenbarte Mordfantasien an Chatbot, Unterhaltung wurde Beweismittel
  • US-Ermittler verlangten ChatGPT-Daten wegen Verbindungen zu Kinderpornografie
War diese Zusammenfassung hilfreich?
Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
IMG_4140.jpg
Sven AltermattCo-Ressortleiter Politik

Was erst nur wie ein privates Gespräch wirkt, kann zum digitalen Beweismittel werden: Wer sich mit ChatGPT und Co. unterhält, hinterlässt Spuren. Auch bei Schweizer Ermittlungen spielen KI-Chatdaten zunehmend eine Rolle. Konkrete Fälle sind bisher kaum publik geworden. Doch der Blick ins Ausland zeigt, wie Ermittler auf solche Daten zurückgreifen – und wann sie helfen, ein Verbrechen aufzuklären.

Vor der Tat offenbarte er sich der KI

Ihm wird derzeit der Prozess gemacht: Ein 22-Jähriger tötete in der deutschen Gemeinde Mellrichstadt eine Arbeitskollegin und verletzte zwei weitere Personen schwer. Laut Staatsanwaltschaft handelte er aus Mordlust.

Vor der Tat tauschte er sich mit einem Chatbot über seine Tötungsfantasien aus. «Ich habe einen Mord an meiner Arbeitskollegin geplant», schrieb er laut «Bild» etwa. Der Bot riet ihm sinngemäss, Hilfe zu suchen. Der Chat wurde später Teil der Ermittlungen – wohl über sichergestellte Geräte.

KI als Beichtstuhl genutzt

Ein junger Mann aus dem US-Bundesstaat Missouri belastete sich 2025 selbst, indem er ChatGPT seine Sachbeschädigungen schilderte und nach Strafrisiken fragte. Doch ein «Beichtgeheimnis» gibt es hier nicht. Der Chat tauchte später in den Ermittlungsakten auf. Die Ermittler fanden den Verlauf ebenfalls bei einer Handydurchsuchung. 

Schulmassaker bringt Anbieter unter Druck

Nach dem Schulmassaker in Kanada mit mehreren Toten im Februar wurde bekannt: Die Täterin hatte Monate zuvor mit ChatGPT Gewalt-Szenarien durchgespielt. OpenAI sperrte ihr Konto, meldete den Fall aber nicht den Behörden – die Schwelle dafür sei nicht erreicht worden.

Kanadas Regierung kritisiert das scharf und fordert von Anbietern bessere Meldeketten. Unklar bleibt, wie konkret die Chats waren und ob sie die Tat beeinflussten.

Prompts sind harmlos, aber verräterisch

US-Ermittler forderten 2025 per gerichtlicher Anordnung gezielt ChatGPT-Daten an – im Kampf gegen Kinderpornografie. Auslöser waren Prompts, die ein Verdächtiger in Undercover-Chats selbst preisgab – eigentlich harmlose Anfragen, die ihn aber mit seinem Account in Verbindung brachten. OpenAI lieferte daraufhin die dazugehörigen Nutzerdaten und Chatverläufe. 

Agent verrät sich über Google Translate

Auch KI-basierte Übersetzungstools können Täter verraten. In einem Fall flog ein mutmasslicher russischer Agent auf, weil er für seine Kommunikation Google Translate nutzte. Die Verschlüsselung seiner Chats nützte wenig. Denn ausgerechnet Sprachprobleme wurden ihm zum Verhängnis: Der Mann sprach kein Serbisch, sein Kontaktmann kein Russisch.

Die beiden verständigten sich deshalb über übersetzte Nachrichten. Ermittler konnten die Inhalte rekonstruieren und die Kommunikation teils sogar mitverfolgen. Das Nachrichtenmagazin «Der Spiegel», das an der Recherche zu dem Fall beteiligt war, sprach von der «folgenschweren Interaktion eines mutmasslichen Kreml-Killers mit einem beliebten Übersetzungstool».

KI-Podcast «Prompt Zero» – der Blick auf AI

Was sagst du dazu?
Heiss diskutiert
    Meistgelesen