Deux plaintes ont été déposées contre ChatGPT sur l’utilisation des données personnelles en France auprès de la Cnil, le gendarme français des données personnelles.
Vendredi dernier, l’Italie est devenue le premier pays a bloquer provisoirement ChatGPT, en raison notamment de craintes sur la securite des donnees personnelles, l’absence d’une note d’information aux utilisateurs, et l’absence de filtre pour verifier l’age des utilisateurs.
Vendredi dernier, l’Italie est devenue le premier pays à bloquer provisoirement ChatGPT, en raison notamment de craintes sur la sécurité des données personnelles, l’absence d’une note d’information aux utilisateurs, et l’absence de filtre pour vérifier l’âge des utilisateurs.
ChatGPT ira devant la justice. Au moins deux plaintes portant sur l’utilisation des données personnelles ont été déposées en France contre le robot conversationnel ChatGPT, déjà visé par diverses procédures dans plusieurs pays, a appris mercredi l’Agence France-Presse auprès des plaignants. Ces deux plaintes, révélées par le site L’Informé, ont été déposées mardi auprès de la Cnil, le gendarme français des données personnelles.
La première provient de l’avocate Zoé Vilain, présidente de l’association de sensibilisation aux enjeux du numérique Janus International. « On n’est pas anti-tech, mais on souhaite une technologie éthique », a déclaré celle-ci à l’Agence France-Presse. Dans sa plainte, Zoé Vilain explique avoir créé un compte sur le site d’OpenAI, l’entreprise californienne à l’origine du logiciel, afin d’utiliser ChatGPT et avoir constaté l’absence de « conditions générales d’utilisation » à accepter et d’« une quelconque politique de confidentialité ».
Elle demande à la Cnil de l’aider à exercer son droit d’accès à ses informations personnelles collectées par OpenAI, après une tentative infructueuse effectuée auprès de l’entreprise. Une deuxième plainte a été déposée par David Libeau, développeur très investi dans la protection des données personnelles. Il explique dans sa plainte avoir repéré des informations personnelles le concernant en interrogeant ChatGPT sur son profil.
Inventer des faits
« Lorsque je demandais plus d’informations, l’algorithme a commencé à affabuler et à m’attribuer la création de sites Web ou l’organisation de manifestations en ligne, ce qui est totalement faux », écrit-il. L’intelligence artificielle générative, une technologie utilisée par ChatGPT pour générer des réponses et qui a été entraînée sur de gigantesques corpus de textes glanés sur Internet, a tendance à inventer certains faits, de l’aveu même de ses concepteurs.
Selon David Libeau, cela contrevient à l’article 5 du Règlement européen sur les données personnelles (RGPD), selon lequel les informations sur des personnes doivent être exactes, et tout traitement de données doit être loyal. Vendredi dernier, l’Italie est devenue le premier pays à bloquer provisoirement ChatGPT, en raison notamment de craintes sur la sécurité des données personnelles, l’absence d’une note d’information aux utilisateurs, et l’absence de filtre pour vérifier l’âge des utilisateurs.
D’autres autorités européennes, dont celles de la France, de l’Irlande ou de l’Allemagne se sont depuis rapprochées de leur homologue italienne pour établir une position commune sur ChatGPT. Mardi, le commissariat à la protection de la vie privée du Canada a, lui, annoncé qu’il ouvrait une enquête sur OpenAI, toujours à propos des informations à caractère personnel. L’IA générative est également sous le coup de plaintes d’artistes et de photographes de presse qui veulent pouvoir accepter ou refuser que leurs œuvres soient utilisées pour l’entraînement d’un modèle.