21 mars 2025

Krusell France

Ta dose d'actu digital !

Une plainte déposée contre OpenAI pour violation des règles GDPR européennes

OpenAI faces European privacy complaint after ChatGPT allegedly hallucinated man murdered his sons
Rate this post

OpenAI sous le feu des critiques pour un chatbot IA ayant diffamé un homme norvégien

Un groupe européen de protection des droits de la vie privée a déposé une plainte contre OpenAI auprès de l’Autorité norvégienne de protection des données, alléguant que la société enfreint les règles du GDPR de l’Europe. La plainte fait suite à une incident où le chatbot d’intelligence artificielle (IA) de OpenAI a faussement déclaré qu’un homme norvégien avait été condamné pour le meurtre de deux de ses enfants.

L’homme a demandé à ChatGPT “Qui est Arve Hjalmar Holmen ?” auquel l’IA a répondu avec une histoire inventée selon laquelle “il avait été accusé puis condamné pour le meurtre de ses deux fils, ainsi que pour la tentative de meurtre de son troisième fils”, recevant une peine de 21 ans de prison. Cependant, certaines détails de l’histoire étaient exacts comme le nombre et le sexe de ses enfants et le nom de sa ville natale.

Les chatbots d’IA sont connus pour donner des réponses trompeuses ou fausses, appelées hallucinations. Cela peut être dû aux données sur lesquelles le modèle IA a été entraîné, comme la présence de biais ou d’inexactitudes.

Le groupe de défense des droits à la vie privée basé en Autriche, Noyb, a annoncé sa plainte contre OpenAI jeudi et a montré la capture d’écran de la réponse à la question du Norvégien à OpenAI. Noyb a redigé la date à laquelle la question a été posée et à laquelle ChatGPT a répondu dans sa plainte à l’autorité norvégienne.

Cependant, le groupe a indiqué qu’OpenAI a maintenant mis à jour son modèle et recherche des informations sur les personnes quand on lui demande qui elles sont. Pour Hjalmar Holmen, cela signifie que ChatGPT ne dit plus qu’il a assassiné ses fils.

Mais Noyb a déclaré que les données incorrectes pourraient toujours faire partie du vaste ensemble de données du modèle de linguistique (LLM) et qu’il n’y a aucun moyen pour le Norvégien de savoir si les fausses informations le concernant ont été définitivement supprimées à cause du fait que ChatGPT renvoie les données des utilisateurs dans son système à des fins de formation.

“Les gens peuvent facilement subir un préjudice réputationnel. Certains pensent qu’il n’y a pas de fumée sans feu. Le fait que quelqu’un puisse lire cette sortie et croire qu’elle est vraie est ce qui me fait le plus peur”, a déclaré Hjalmar Holmen dans une déclaration.

Noyb a demandé à l’Autorité norvégienne de protection des données d’ordonner à OpenAI de supprimer la sortie diffamatoire et d’affiner son modèle pour éliminer les résultats inexacts. Le groupe a demandé également une amende administrative à OpenAI “pour éviter des violations similaires à l’avenir”.

“Ajouter une clause de non-conformité à la loi ne fait pas disparaître la loi. Les entreprises d’IA ne peuvent pas non plus simplement ‘cacher’ des informations fausses aux utilisateurs tout en traitant encore en interne des informations trompeuses”, a déclaré Kleanthi Sardeli, avocate en protection des données chez Noyb.

“Les entreprises d’IA devraient cesser de se comporter comme si le GDPR ne s’appliquait pas à elles alors qu’il s’applique clairement. Si les hallucinations ne sont pas arrêtées, les gens peuvent facilement subir un préjudice réputationnel”, a-t-elle ajouté. Euronews Next a contacté OpenAI pour un commentaire.

Source : www.euronews.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications