Darum gehts
- Schweizer Datenschützer warnen vor unbedachtem Umgang mit Chatbot-Daten wie ChatGPT
- Polizei nutzt KI-Daten bei Ermittlungen, besonders bei Cybercrime und Gewaltverbrechen
- Kantonspolizeien bestätigen erste Fälle, sie bekommen auch Meldungen von Anbietern
KI-Chatbots wie ChatGPT oder Gemini sind zu digitalen Alltagshelfern geworden – schnell, praktisch, immer verfügbar. Und sie werden zu stillen Mitwissern: Nutzer schildern ihre Sorgen, laden private Dokumente hoch und sprechen über heikle Situationen. Oder wie es Sam Altman (40), Chef des ChatGPT-Entwicklers OpenAI, formulierte: Viele vertrauten der KI «the most personal shit in their lives» an – ihr Allerprivatestes.
Gerade deshalb raten Schweizer Datenschützer zu Zurückhaltung. Wer KI nutzt, sollte genau überlegen, was er preisgibt. So warnt etwa der Thurgauer Datenschutzbeauftragte unmissverständlich: «Seien Sie vorsichtig bei Prompt-Eingaben in öffentlichen KI-Systemen.» Diese würden gespeichert und könnten weitergegeben werden.
Schöpfen Ermittler das neue Spurenfeld aus?
Doch für Strafermittler können genau solche Daten wertvoll sein. Denn nicht alle nutzen die KI mit guten Absichten: Auch Kriminelle chatten mit ihr. Sie spielen Szenarien durch, holen sich Rat oder sprechen sogar offen über ihre Verbrechen. Solche Prompts – also die Fragen und Befehle an die KI – liefern der Polizei Indizien. Sie sind ähnlich aufschlussreich wie Google-Suchverläufe oder Telefondaten.
Internationale Fälle zeigen, wie brisant die KI-Spuren sein können. Da ist etwa eine grauenvolle Tat aus Deutschland: Im bayerischen Mellrichstadt soll sich ein 22-Jähriger vor einer tödlichen Messerattacke mit ChatGPT über seine Gewaltfantasien unterhalten haben. Er schrieb unter anderem: «Ich habe einen Mord an meiner Arbeitskollegin geplant.» Später wurde der Chat Teil der Ermittlungen – als Beweisstück.
Hier beginnt auch in der Schweiz die politische Debatte: Wie schöpfen die Behörden dieses Spurenfeld schon aus? Und brauchen die Strafverfolger dafür neue Instrumente? Blick hat sich bei den Polizeien umgehört.
So kommen die Daten zur Polizei
Die Strafermittler nutzen mehrere Wege, zeigt die Umfrage. Einer führt direkt über die Anbieter: So kann beispielsweise OpenAI auf die Inhalte zugreifen – sie werden automatisiert ausgewertet, gerade um Missbrauch zu erkennen. Bei heiklen Themen wie Gewalt ist es möglich, dass Chatverläufe bei sogenannten Moderatoren landen. Erkennen sie eine konkrete Gefahr, können Informationen an Strafverfolger weitergegeben werden.
Ein zweiter Weg führt über formelle Anfragen. Besteht der Verdacht, dass ein Täter einen KI-Chatbot genutzt hat, können Ermittler im Rahmen der internationalen Rechtshilfe Einsicht verlangen. Solche Verfahren sind allerdings aufwendig. Direkte Zugriffe wie bei amerikanischen Behörden sind Schweizer Ermittlern nicht möglich. Gelangen solche Daten in US-Verfahren, können sie aber über internationale Kooperationen auch in der Schweiz landen.
In der Praxis oft entscheidend ist ein dritter Weg: die Auswertung beschlagnahmter Geräte. Chats werden direkt auf Smartphones oder Computern von Verdächtigen gesichert und analysiert.
«Greifen immer mehr auf sie zurück»
Und konkret? Mancherorts geben sich die Ermittler bei diesem Thema lieber zugeknöpft. In Zürich etwa leitet die Kantonspolizei den Blick-Fragenkatalog an die Staatsanwaltschaft weiter. Dort fällt die Antwort knapp aus: Man habe «keine Möglichkeit zu erheben, welche Verfahren sich auf was für Beweismittel stützen».
Offener zeigt sich das Bundesamt für Polizei (Fedpol). «Da die Nutzung von KI-Plattformen wie ChatGPT zunimmt, greifen auch die Polizeibehörden immer mehr auf sie zurück», erklärt eine Sprecherin.
Um ihren gesetzlichen Auftrag zu erfüllen, seien die Behörden auf Informationen aus unterschiedlichen Quellen angewiesen. Nutze ein Verdächtiger einen KI-Bot und seien die Inhalte für Ermittlungen relevant, könnten Daten «von Anbietern wie ChatGPT» verwendet werden – etwa bei Cybercrime, Terrorismus oder organisierter Kriminalität. Das Fedpol äussert sich «aus taktischen Gründen» nicht zur Zusammenarbeit mit einzelnen Anbietern.
Die Kantonspolizei Aargau bestätigt erste Fälle. KI-Chatdaten seien sowohl bei der «Auswertung von sichergestellten Datenträgern» als auch nach «Meldung von Anbietern» aufgetaucht. Betroffen waren Vermögensdelikte, Gewaltdelikte und Cybercrime.
Auch in St. Gallen gehören solche Auswertungen bereits dazu. Bei schweren Fällen sehe die Untersuchung «immer eine detaillierte Auswertung» der sichergestellten Geräte und von deren Inhalt vor, teilt die Kantonspolizei mit. Gewicht hätten solche Daten «insbesondere bei Indizienprozessen». Direkte Hinweise von KI-Plattformen habe man bisher jedoch keine erhalten.
Offizielle Zahlen fehlen, über konkrete Fälle herrscht Schweigen. Und andere Kantonspolizeien stehen noch am Anfang: Luzern meldet, man verfüge «bislang über keine konkreten Erfahrungen mit der Auswertung von KI-Daten im Rahmen von Strafverfahren». Auch Bern hat «noch keine KI-Chatdaten verwendet», beobachte die Entwicklung jedoch.
Bern hält nichts von Extraregeln
Die Werkzeuge sind also längst da. Braucht es noch neue Extraregeln, um KI-Plattformen auszuwerten? Nein – so zumindest das Fazit einer kaum beachteten Analyse im Auftrag des Bundesrats.
Das Papier hält fest, dass das Schweizer Strafrecht «grundsätzlich mit seinem technologieneutralen Ansatz ein geeignetes Instrument bietet, um den Einsatz von KI-Systemen durch einen Täter (...) insbesondere bei vorsätzlichen Straftaten zu erfassen».
Auf gut Deutsch: Die Plattform spielt keine Rolle. KI-Chats werden rechtlich schlicht wie andere digitale Spuren behandelt – etwa E-Mails, Social-Media-Posts oder Sprachnotizen.