Darum gehts
- Ermittler nutzen KI-Daten zur Aufklärung von Straftaten, Fälle zeigen das Ausmass
- Deutscher Täter offenbarte Mordfantasien an Chatbot, Unterhaltung wurde Beweismittel
- US-Ermittler verlangten ChatGPT-Daten wegen Verbindungen zu Kinderpornografie
Was erst nur wie ein privates Gespräch wirkt, kann zum digitalen Beweismittel werden: Wer sich mit ChatGPT und Co. unterhält, hinterlässt Spuren. Auch bei Schweizer Ermittlungen spielen KI-Chatdaten zunehmend eine Rolle. Konkrete Fälle sind bisher kaum publik geworden. Doch der Blick ins Ausland zeigt, wie Ermittler auf solche Daten zurückgreifen – und wann sie helfen, ein Verbrechen aufzuklären.
Vor der Tat offenbarte er sich der KI
Ihm wird derzeit der Prozess gemacht: Ein 22-Jähriger tötete in der deutschen Gemeinde Mellrichstadt eine Arbeitskollegin und verletzte zwei weitere Personen schwer. Laut Staatsanwaltschaft handelte er aus Mordlust.
Vor der Tat tauschte er sich mit einem Chatbot über seine Tötungsfantasien aus. «Ich habe einen Mord an meiner Arbeitskollegin geplant», schrieb er laut «Bild» etwa. Der Bot riet ihm sinngemäss, Hilfe zu suchen. Der Chat wurde später Teil der Ermittlungen – wohl über sichergestellte Geräte.
KI als Beichtstuhl genutzt
Ein junger Mann aus dem US-Bundesstaat Missouri belastete sich 2025 selbst, indem er ChatGPT seine Sachbeschädigungen schilderte und nach Strafrisiken fragte. Doch ein «Beichtgeheimnis» gibt es hier nicht. Der Chat tauchte später in den Ermittlungsakten auf. Die Ermittler fanden den Verlauf ebenfalls bei einer Handydurchsuchung.
Schulmassaker bringt Anbieter unter Druck
Nach dem Schulmassaker in Kanada mit mehreren Toten im Februar wurde bekannt: Die Täterin hatte Monate zuvor mit ChatGPT Gewalt-Szenarien durchgespielt. OpenAI sperrte ihr Konto, meldete den Fall aber nicht den Behörden – die Schwelle dafür sei nicht erreicht worden.
Kanadas Regierung kritisiert das scharf und fordert von Anbietern bessere Meldeketten. Unklar bleibt, wie konkret die Chats waren und ob sie die Tat beeinflussten.
Prompts sind harmlos, aber verräterisch
US-Ermittler forderten 2025 per gerichtlicher Anordnung gezielt ChatGPT-Daten an – im Kampf gegen Kinderpornografie. Auslöser waren Prompts, die ein Verdächtiger in Undercover-Chats selbst preisgab – eigentlich harmlose Anfragen, die ihn aber mit seinem Account in Verbindung brachten. OpenAI lieferte daraufhin die dazugehörigen Nutzerdaten und Chatverläufe.
Agent verrät sich über Google Translate
Auch KI-basierte Übersetzungstools können Täter verraten. In einem Fall flog ein mutmasslicher russischer Agent auf, weil er für seine Kommunikation Google Translate nutzte. Die Verschlüsselung seiner Chats nützte wenig. Denn ausgerechnet Sprachprobleme wurden ihm zum Verhängnis: Der Mann sprach kein Serbisch, sein Kontaktmann kein Russisch.
Die beiden verständigten sich deshalb über übersetzte Nachrichten. Ermittler konnten die Inhalte rekonstruieren und die Kommunikation teils sogar mitverfolgen. Das Nachrichtenmagazin «Der Spiegel», das an der Recherche zu dem Fall beteiligt war, sprach von der «folgenschweren Interaktion eines mutmasslichen Kreml-Killers mit einem beliebten Übersetzungstool».