Le nouvel outil d’Intelligence Artificielle de Google provoque la controverse
L’intelligence artificielle de Google donne des recommandations loufoques
Google a mis à jour son moteur de recherche avec un outil d’intelligence artificielle (IA) – mais la nouvelle fonctionnalité aurait conseillé aux utilisateurs de manger des cailloux, d’ajouter de la colle à leurs pizzas et de nettoyer leurs machines à laver avec du gaz de chlore, selon divers témoignages sur les réseaux sociaux et les actualités.
Des recommandations choquantes
Dans un exemple particulièrement choquant, l’IA a semblé suggérer de sauter du pont du Golden Gate lorsqu’un utilisateur a recherché "Je me sens déprimé."
Le nouvel outil "IA Overviews" expérimental parcourt le web pour résumer les résultats de recherche en utilisant le modèle d’IA Gemini. La fonctionnalité a été déployée pour certains utilisateurs aux États-Unis avant une sortie mondiale prévue plus tard cette année, Google a annoncé le 14 mai lors de sa conférence de développement I/O.
Mais l’outil a déjà suscité un vaste mécontentement sur les réseaux sociaux, les utilisateurs affirmant que dans certains cas, les résumés générés par l’IA Overviews utilisaient des articles du site satirique The Onion et des publications comiques sur Reddit comme sources.
Des recommandations erronées
"Dans un verre, mettez également environ ⅛ de tasse de colle non toxique dans la sauce pour lui donner plus de viscosité", a déclaré l’outil IA Overviews en réponse à une question sur la pizza, selon une capture d’écran publiée sur X. En remontant à la réponse, il semble qu’elle soit basée sur un commentaire blagueur datant de dix ans sur Reddit.
D’autres affirmations erronées incluent le fait que Barack Obama est musulman, que le Père Fondateur John Adams a obtenu son diplôme de l’Université du Wisconsin 21 fois, qu’un chien a joué dans la NBA, la NHL et la NFL et que les utilisateurs devraient manger un caillou par jour pour faciliter leur digestion.
Réponse de Google
Nous n’avons pas pu vérifier de manière indépendante les publications. En réponse aux questions sur l’ampleur des résultats erronés, les représentants de Google ont déclaré dans un communiqué que les exemples vus étaient "généralement des requêtes très rares et ne représentent pas l’expérience de la plupart des gens".
"La grande majorité des IA Overviews fournissent des informations de haute qualité, avec des liens pour approfondir sur le web", indique le communiqué. "Nous avons effectué des tests approfondis avant de lancer cette nouvelle expérience afin de garantir que les aperçus de l’IA répondent à notre exigence de qualité élevée. Lorsqu’il y a eu des violations de nos politiques, nous avons agi – et nous utilisons également ces exemples isolés pour continuer à affiner nos systèmes dans leur ensemble."
Ce n’est pas la première fois que des modèles d’IA génératifs ont été repérés en train d’inventer des choses – phénomène connu sous le nom d ‘"hallucinations". Dans un exemple notable, ChatGPT a inventé un scandale de harcèlement sexuel et a nommé un vrai professeur de droit comme coupable, citant des articles de journaux fictifs comme preuves.
Source : www.livescience.com