OpenAI a récemment décidé de muscler la sécurité sur ChatGPT, et cette fois, la priorité va clairement à la protection des jeunes. À ce sujet, l’entreprise n’y va pas par quatre chemins : elle souhaite déployer un dispositif qui tente de deviner l’âge des utilisateurs simplement à partir de leurs interactions textuelles avec ChatGPT.
Et si la vie privée doit passer au second plan, eh bien, pour OpenAI, c’est un mal pour un bien. Il faut dire que cette démarche fait suite à un cas tragique où un jeune, suivant à la lettre les recommandations de l’IA, a décidé de mettre fin à ses jours. Ce terrible événement a mis sur la table l’urgence de revoir la sécurité, en particulier concernant les mineurs.
Un système basé sur l’analyse de l’expression écrite
Dans le détail, OpenAI explique que leur mécanisme analysera la manière de s’exprimer de chacun pour estimer s’il s’agit d’une personne majeure ou non (source : OpenAI). Si l’utilisateur semble avoir moins de 18 ans, tout bascule : ChatGPT passera automatiquement en mode ultra-protecteur.
On peut dire adieu aux contenus sensibles ou explicites, et dans certaines situations, par exemple en cas de détresse manifeste, l’IA sera même amenée à contacter les autorités compétentes. Ce filtre n’est pas seulement un filetage grossier ; il vise clairement à limiter les accidents et à offrir un environnement digital bien plus sécurisé aux plus jeunes.
Des incertitudes et des défis à relever
Bien sûr, ce genre de “profilage” basé uniquement sur des échanges écrits n’est pas sans défauts. S’appuyer sur la syntaxe ou le style pour estimer l’âge d’une personne, c’est loin d’être infaillible, et OpenAI en a pleinement conscience.
Le risque d’erreur reste très présent : il se pourrait que certains adultes se retrouvent injustement catalogués en jeunes et bridés dans leurs usages. L’entreprise réagit en précisant que, dans le doute, elle privilégiera toujours la sécurité, quitte à restreindre des accès à tort plutôt que de prendre le moindre risque.
Les adultes confrontés à la vérification de leur âge
Pour les utilisateurs majeurs, la problématique prend une autre tournure. Imaginons-le : un adulte souhaitant exploiter tous les potentiels de ChatGPT pourrait devoir prouver son âge à travers une vérification d’identité, afin de retrouver une expérience normale.
On peut anticiper que cette obligation sera d’actualité dans certains pays, où les lois sur la protection des données et de la jeunesse sont strictes. OpenAI reconnaît d’ailleurs que ce mécanisme piétine quelque peu la vie privée des utilisateurs, mais, selon ses dirigeants, cela reste une concession justifiée face aux enjeux de sécurité soulevés.
Des changements imminents pour tous les utilisateurs
Actuellement, aucune date précise n’a été communiquée quant à l’implémentation de ce système de vérification de l’âge. OpenAI promet de fournir plus de détails en temps voulu, mais une chose semble acquise : l’expérience ChatGPT telle qu’on la connaît va bientôt évoluer.
Cette évolution soulève déjà, et soulèvera encore, de nouveaux débats sur la frontière glissante entre sécurité numérique et respect de la vie privée. Il faudra s’attendre à de vives discussions, opposant d’un côté les défenseurs du contrôle parental, et de l’autre ceux qui tiennent à préserver l’anonymat et la liberté de naviguer en ligne. À suivre, donc.
Source : OpenAI

Commentaires 0
Soyez le premier à commenter !