Google Gemini : La controverse autour de la génération d’images de personnes par l’IA
Google a suspendu en février la capacité de son chatbot alimenté par l’IA, Gemini, à générer des images de personnes après que des utilisateurs se soient plaints d’erreurs historiques. On demandait à Gemini de représenter “une légion romaine”, par exemple, le chatbot affichait un groupe anachronique de soldats d’origines diverses tout en représentant des “guerriers zoulous” de manière stéréotypée.
Les défis dans la correction des erreurs d’IA
Le PDG de Google, Sundar Pichai, s’est excusé, et Demis Hassabis, le co-fondateur de la division de recherche en intelligence artificielle de Google, DeepMind, a déclaré qu’une solution devrait arriver “très rapidement” – dans les prochaines semaines. Cependant, nous sommes maintenant bien avancés en mai, et la correction promise reste insaisissable.
Google a vanté de nombreuses autres fonctionnalités de Gemini lors de sa conférence annuelle des développeurs I/O cette semaine, allant des chatbots personnalisés à un planificateur d’itinéraires de vacances et des intégrations avec Google Calendar, Keep et YouTube Music. Cependant, la génération d’images de personnes reste désactivée dans les applications Gemini sur le web et sur mobile, a confirmé un porte-parole de Google.
Les enjeux de Google
Alors, qu’est-ce qui bloque? Eh bien, le problème est probablement plus complexe que ne l’a laissé entendre Hassabis.
Les ensembles de données utilisés pour former des générateurs d’images comme celui de Gemini contiennent généralement plus d’images de personnes blanches que de personnes d’autres races et ethnies, et les images de personnes non blanches dans ces ensembles de données renforcent les stéréotypes négatifs. Google, dans un effort apparent pour corriger ces biais, a mis en œuvre un codage maladroit sous le capot. Et maintenant, il peine à trouver un compromis raisonnable qui évite de répéter l’histoire.
Google y parviendra-t-il? Peut-être. Peut-être pas. En tout cas, cette affaire qui s’éternise rappelle qu’aucune correction d’une IA récalcitrante n’est simple – surtout lorsque le biais est à l’origine du comportement problématique.
Source : techcrunch.com