Le développeur de ChatGPT, OpenAI et le géant du jouet Mattel s'associent. Les premiers produits devraient être annoncés avant la fin de l'année: des Barbies parlantes aux Hot Wheels interactifs, tout est envisageable. Le partenariat va donc amener l'IA directement dans la chambre d'enfant.
«Nous prévoyons d'annoncer quelque chose qui couvrira tout le spectre des produits physiques», déclare Josh Silverman de Mattel à Bloomberg.
Les spécialistes voient ce développement d'un œil critique. «Avec une telle collaboration entre OpenAI et Mattel, on peut supposer que des jouets seront développés, qui comprendront une sorte d'interface vocale pour ChatGPT», explique Isabel Wagner, professeur de cybersécurité à l'Université de Bâle. «Pour réaliser cela techniquement, le jouet transmettra probablement des enregistrements vocaux sur Internet».
Un jouet toujours à l'écoute
Un jouet IA en forme de fusée en peluche appelé Grok, que l'experte a étudié l'année dernière, montre à quel point cela peut être problématique. «Grok est toujours à l'écoute. Il n'y a pas de mot d'activation», explique-t-elle. Tout le contraire de l'assistant vocal IA Siri, par exemple, qui ne s'active que lorsqu'on l'appelle. C'est pourquoi le jouet IA est même classé comme «outil d'espionnage dissimulé».
Les risques sont multiples: les enfants ne se rendent souvent pas compte que leurs conversations circulent sur Internet. «Les données pourraient être utilisées pour entraîner davantage les modèles linguistiques, mais aussi pour la publicité ou le profilage», explique Isabel Wagner.
Brider l'imagination des enfants
Regula Bernhard Hug, directrice de l'Association suisse pour la protection de l'enfant, met l'accent sur un autre aspect: l'influence sur le développement de l'enfant. L'experte met en garde: «Cela enlève l'imagination. L'interaction avec les jouets IA est dictée par l'algorithme, la manière dont le chatbot a été entraîné», explique-t-elle. Un chatbot ne peut que reproduire ce qui existe déjà, alors que l'imagination est justement le contraire: créer quelque chose de nouveau.
A cela s'ajoutent des risques émotionnels. «L'attachement à l'appareil qui se développe chez l'enfant se substitue à ce que l'on avait jusqu'à présent comme lien émotionnel entre les adultes ou les frères et sœurs et l'enfant», explique Regula Bernhard Hug. Plus les enfants passent de temps dans cet «univers clos de choses déjà pensées», moins ils apprennent les interactions humaines de base.
Les lois sont à la traîne
La question est la suivante: un tel jouet IA a-t-il le droit de figurer dans les rayons des magasins dans notre pays? «De mon point de vue, les jouets basés sur l'IA sont en principe autorisés et, jusqu'à présent, ils ne sont pas particulièrement réglementés, tout comme les autres IA», explique l'avocat Martin Steiger.
La loi sur la protection des données est certes applicable, mais sans dispositions particulières pour les enfants. La réglementation actuelle sur les jouets est «technique et traditionnelle», car elle date d'une époque où l'IA n'existait pas. «Les risques de l'IA, notamment pour les enfants, ne sont pas pris en compte jusqu'à présent», poursuit Martin Steiger. Pour une meilleure protection des enfants, la Suisse pourrait s'inspirer de l’AI Act européen et interdire les jouets IA qui exploitent la vulnérabilité des enfants, toujours à en croire l'avocat.
Avertissement du passé
Mattel avait déjà tenté l'expérience en 2015 avec Hello Barbie, une poupée connectée à Internet. Cette dernière pouvait tenir des conversations et obtenir des réponses à partir du cloud. Juste après son lancement, des chercheurs en sécurité ont piraté la poupée et ont montré que des criminels pouvaient voler des informations personnelles ou écouter des conversations avec des enfants.
La connexion entre la poupée, l'application et le cloud était en partie insuffisamment sécurisée. Malgré les avertissements, rien ne s'est passé dans un premier temps, jusqu'à ce que Mattel mette silencieusement fin à l'utilisation de la poupée en 2017.
Ce que les expertes conseillent aux parents
Au vu des risques, l'experte Isabel Wagner conseille la prudence: «Mettre un enfant seul dans une pièce avec un jouet IA n'est probablement pas une bonne idée dans un premier temps». Mais l'achat pose déjà des problèmes aux parents. «Les parents devraient avoir le droit de savoir quelles données sont collectées par un tel jouet IA», souligne Regula Bernhard Hug.
Mais le problème est qu'il est aujourd'hui pratiquement impossible pour les parents de prendre une décision d'achat en connaissance de cause, car les dispositions relatives à la protection des données sont incompréhensibles.
L'Université de Bâle travaille actuellement avec l'Association Suisse pour la Protection de l'Enfant à l'élaboration d'un label destiné aux parents, afin de distinguer les jouets intelligents sûrs de ceux qui posent problème, à l'instar des étiquettes énergétiques avec des évaluations vertes, jaunes et rouges. Le label doit couvrir différents critères de protection des enfants et offrir une orientation aux parents. Un premier prototype devrait voir le jour d'ici fin 2026.