Intime Details öffentlich
ChatGPT-Panne: So landeten Tausende private Chats bei Google

Tausende Nutzer haben persönliche ChatGPT-Gespräche öffentlich gemacht. Die Inhalte reichen von intimen Geständnissen bis zu Geschäftsgeheimnissen. Wie konnte das passieren?
Publiziert: 14:25 Uhr
|
Aktualisiert: 15:29 Uhr
Teilen
Anhören
Kommentieren
1/5
Tausende ChatGPT-Gespräche, oft voller intimer Details, waren über Google frei zugänglich. Was als private Unterhaltung gedacht war, landete unbeabsichtigt im Netz.
Foto: keystone-sda.ch

Darum gehts

  • Über 110'000 ChatGPT-Chats landeten unbeabsichtigt im Netz
  • Ursache war eine irreführende Teilen-Funktion, OpenAI reagiert
  • Datenschutz-Expertin rät: keine sensiblen Daten eingeben
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

Ein italienischer Anwalt bittet ChatGPT um Hilfe bei einem heiklen Fall: Er vertritt einen Energiekonzern, der im Amazonas eine indigene Gemeinschaft für ein Damm-Projekt vertreiben will. Im Chat fragt er: «Wie erzielen wir den niedrigstmöglichen Preis in den Verhandlungen?» und ergänzt: «Die Leute dort kennen den Marktwert ihres Landes nicht.» Der Verlauf ist echt. Und er ist öffentlich, archiviert im Netz, auffindbar über einen simplen Link.

Dieser Chat ist kein Einzelfall. Laut dem niederländischen Recherche-Profi Henk van Ess wurden kürzlich mehr als 110’000 Gespräche zwischen Nutzerinnen und Nutzern und ChatGPT öffentlich geteilt, viele davon wohl unbeabsichtigt.

Ein falscher Klick genügt

Wie konnte das passieren? Ursprung des Leaks ist eine Funktion, die OpenAI im Frühling 2025 eingeführt hatte. Wer eine Unterhaltung mit ChatGPT teilen wollte, konnte einen Link generieren und dabei ein Häkchen setzen, um die Unterhaltung «auffindbar» zu machen. Was in einem hellen Grauton darunter stand, haben viele wohl übersehen: dass diese Chats damit in Suchmaschinen auftauchen können.

Neben dem Fall aus dem Amazonas dokumentierte van Ess weitere krasse Beispiele: Ein CEO, der vertrauliche Finanzdaten teilte. Studierende, die Abschlussarbeiten mit ChatGPT schreiben liessen. Und Leute, die Strategien für Cyberangriffe besprachen. 

Auch Datenschützerinnen schlugen Alarm. So etwa die Juristin und KI-Ethikerin Luiza Jarovsky. Sie entdeckte bei ihren eigenen Recherchen ebenfalls öffentlich zugängliche Gespräche, über sexuelle Belästigung, psychische Krisen oder Beziehungsprobleme. In einem Post auf X schrieb sie: «Die Betroffenen wären wohl beunruhigt, wenn sie entdecken würden, dass es einen öffentlichen Link zu ihren privaten Chats auf Google gibt.» Ihre Kritik: Die Oberfläche sei für Laien irreführend gestaltet. Jarovsky forscht seit Jahren zu sogenannten «Dark Patterns», also zu Designelementen, die Nutzer unbewusst zu Entscheidungen drängen. Für sie ist klar: Nicht die Nutzer tragen die Verantwortung, sondern die Plattform.

OpenAI zieht die Reissleine

Nachdem die Vorwürfe publik wurden, entfernte OpenAI die Funktion. «Wir glauben, dass das Feature zu viele Möglichkeiten geschaffen hat, unbeabsichtigt sensible Inhalte zu teilen», schrieb Sicherheitschef Dane Stuckey auf X. Auch wenn viele der Links mittlerweile aus der Google-Suche verschwunden sind: Über Dienste wie archive.org sind sie weiterhin abrufbar. Was einmal im Netz gelandet ist, bleibt oft länger sichtbar, als den Betroffenen lieb ist.

Was man jetzt tun sollte

Der Vorfall zeigt, wie schnell scheinbar private KI-Unterhaltungen öffentlich werden können. Jarovsky rät deshalb zu mehr Vorsicht im Umgang mit Chatbots – und hat konkrete Empfehlungen:

  • Keine persönlichen Daten in KI-Tools eingeben – auch keine Namen, Adressen oder Gesundheitsinformationen.
  • Die «Share»-Funktion nur nutzen, wenn man mit der Veröffentlichung im Netz einverstanden ist.
  • Die ChatGPT-Memory-Funktion deaktivieren, um das Speichern persönlicher Details zu verhindern.
  • In den Datenschutzeinstellungen prüfen, ob Inhalte fürs KI-Training verwendet werden dürfen – und dies gegebenenfalls ausschalten.
Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?