24 novembre 2024

Krusell France

Ta dose d'actu digital !

Google Gemini : La controverse autour de la génération d’images de personnes par l’IA

illustration featuring Google's Bard logo
Rate this post

Google a suspendu en février la capacité de son chatbot alimenté par l’IA, Gemini, à générer des images de personnes après que des utilisateurs se soient plaints d’erreurs historiques. On demandait à Gemini de représenter “une légion romaine”, par exemple, le chatbot affichait un groupe anachronique de soldats d’origines diverses tout en représentant des “guerriers zoulous” de manière stéréotypée.

Les défis dans la correction des erreurs d’IA

Le PDG de Google, Sundar Pichai, s’est excusé, et Demis Hassabis, le co-fondateur de la division de recherche en intelligence artificielle de Google, DeepMind, a déclaré qu’une solution devrait arriver “très rapidement” – dans les prochaines semaines. Cependant, nous sommes maintenant bien avancés en mai, et la correction promise reste insaisissable.

Google a vanté de nombreuses autres fonctionnalités de Gemini lors de sa conférence annuelle des développeurs I/O cette semaine, allant des chatbots personnalisés à un planificateur d’itinéraires de vacances et des intégrations avec Google Calendar, Keep et YouTube Music. Cependant, la génération d’images de personnes reste désactivée dans les applications Gemini sur le web et sur mobile, a confirmé un porte-parole de Google.

Les enjeux de Google

Alors, qu’est-ce qui bloque? Eh bien, le problème est probablement plus complexe que ne l’a laissé entendre Hassabis.

Les ensembles de données utilisés pour former des générateurs d’images comme celui de Gemini contiennent généralement plus d’images de personnes blanches que de personnes d’autres races et ethnies, et les images de personnes non blanches dans ces ensembles de données renforcent les stéréotypes négatifs. Google, dans un effort apparent pour corriger ces biais, a mis en œuvre un codage maladroit sous le capot. Et maintenant, il peine à trouver un compromis raisonnable qui évite de répéter l’histoire.

Google y parviendra-t-il? Peut-être. Peut-être pas. En tout cas, cette affaire qui s’éternise rappelle qu’aucune correction d’une IA récalcitrante n’est simple – surtout lorsque le biais est à l’origine du comportement problématique.

Source : techcrunch.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications