Darum gehts
- OpenAI und Mattel planen KI-Spielzeug. Experten warnen vor Risiken
- Sprachaufnahmen könnten ins Internet übertragen werden, Datenschutz ist problematisch
- Bis Ende 2026 soll ein Prototyp für ein Sicherheits-Label entwickelt werden
ChatGPT-Entwickler OpenAI und der Spielzeugriese Mattel spannen zusammen. Noch Ende Jahr sollen erste Produkte angekündigt werden: Von sprechenden Barbies bis zu interaktiven Hot Wheels ist alles denkbar. Die Partnerschaft wird KI also direkt ins Kinderzimmer bringen. «Wir planen, etwas zu verkünden, was das ganze Spektrum an physischen Produkten abdeckt», sagt Josh Silverman von Mattel zu Bloomberg.
Fachpersonen sehen die Entwicklung kritisch. «Bei einer solchen Zusammenarbeit zwischen OpenAI und Mattel liegt die Vermutung nahe, dass Spielzeuge entwickelt werden, die eine Art Sprachinterface für ChatGPT beinhalten», sagt Isabel Wagner, Professorin für Cybersicherheit an der Universität Basel. «Um das technisch zu realisieren, wird das Spielzeug wohl Sprachaufnahmen ins Internet übertragen.»
Spion in der Plüschrakete
Wie problematisch das sein kann, zeigt ein KI-Spielzeug in Form einer Rakete aus Plüsch namens Grok, das Wagner im vergangenen Jahr untersucht hat. «Grok hört immer zu. Es gibt kein Weck-Wort», erklärt sie. Ganz anders als etwa beim KI-Sprachassistenten Siri, der erst auf Zuruf aktiviert wird. Das KI-Spielzeug wird deshalb sogar als «verdecktes Spionagewerkzeug» eingestuft. Die Risiken seien vielfältig: Kindern sei oft nicht klar, dass ihre Unterhaltungen ins Internet fliessen. «Daten könnten zum weiteren Training von Sprachmodellen verwendet werden, aber auch für Werbung oder Profilbildung», so Wagner.
Regula Bernhard Hug, die Direktorin von Kinderschutz Schweiz, legt den Fokus auf einen anderen Aspekt: den Einfluss auf die kindliche Entwicklung. Die Expertin warnt: «Das nimmt die Fantasie weg. Die Interaktion mit KI-Spielzeug wird vorgegeben vom Algorithmus, wie der Chatbot trainiert wurde», erklärt sie. Ein Chatbot könne nur wiedergeben, was bereits existiere, während Fantasie gerade das Gegenteil sei – etwas Neues zu erschaffen.
Hinzu kommen emotionale Risiken. «Die Bindung an das Gerät, die sich beim Kind entwickelt, substituiert das, was man bisher als emotionale Bindung zwischen Erwachsenen oder Geschwistern und dem Kind hatte», sagt Regula Bernhard Hug. Je mehr Zeit Kinder in diesem «geschlossenen Universum von schon Gedachtem» verbringen, desto weniger lernten sie grundlegende menschliche Interaktionen.
Gesetze hinken hinterher
Die Frage ist: Darf ein solches KI-Spielzeug hierzulande überhaupt im Ladenregal stehen? «KI-basiertes Spielzeug ist aus meiner Sicht grundsätzlich erlaubt und bislang, wie auch sonstige KI, nicht besonders reguliert», erklärt Rechtsanwalt Martin Steiger. Es gelte zwar das Datenschutzgesetz, allerdings ohne besondere Bestimmungen für Kinder. Die bestehende Spielzeugregulierung sei «technisch und traditionell ausgerichtet», da sie aus Zeiten ohne KI stamme. «Die Risiken von KI, gerade für Kinder, werden bislang nicht berücksichtigt», so Steiger. Für besseren Kinderschutz könnte sich die Schweiz am EU AI Act orientieren und KI-Spielzeug verbieten, das die Verwundbarkeit von Kindern ausnutzt, so Steiger.
Warnung aus der Vergangenheit
Mattel wagte bereits 2015 den Versuch mit Hello Barbie, einer Puppe mit Internetanschluss. Die Puppe konnte Gespräche führen und Antworten aus der Cloud abrufen. Direkt nach der Einführung hackten Sicherheitsforscher die Puppe und zeigten, dass Kriminelle persönliche Informationen stehlen oder Gespräche mit Kindern abhören konnten. Die Verbindung zwischen Puppe, App und Cloud war teilweise unzureichend gesichert. Trotz Warnungen passierte zunächst nichts, bis Mattel die Puppe 2017 stillschweigend einstellte.
Das raten Expertinnen den Eltern
Angesichts der Risiken rät Expertin Isabel Wagner zur Vorsicht: «Ein Kind alleine in einen Raum mit einem KI-Spielzeug zu setzen, ist wahrscheinlich erst einmal nicht so eine gute Idee.» Doch bereits der Kauf stellt Eltern vor Probleme. «Eltern sollten ein Recht darauf haben zu erfahren, welche Daten so ein KI-Spielzeug sammelt», betont Regula Bernhard Hug. Doch das Problem sei, dass es für Eltern heute praktisch unmöglich sei, eine informierte Kaufentscheidung zu treffen, da die Datenschutzbestimmungen unverständlich seien.
Die Uni Basel arbeitet derzeit zusammen mit Kinderschutz Schweiz an einem Label für Eltern, um sichere von problematischen Smart Toys zu unterscheiden – ähnlich wie bei Energieetiketten mit grünen, gelben und roten Bewertungen. Das Label soll verschiedene Kinderschutzkriterien abdecken und Eltern eine Orientierung bieten. Bis Ende 2026 soll ein erster Prototyp stehen.
DCX STORY: doc817ps6897vt1n8tll6y [Forscher warnen vor KI-Chatbots]