5 juillet 2024

Krusell France

Ta dose d'actu digital !

Risques posés par l’IA : employés d’OpenAI et Google DeepMind tirent la sonnette d’alarme

OpenAI, Google DeepMind's current and former employees warn about AI risks
Rate this post

Les risques liés à l’intelligence artificielle soulevés par des employés actuels et anciens de grandes entreprises du secteur

Risques liés à l’IA selon des employés de OpenAI et Google DeepMind

Un groupe d’employés actuels et anciens d’entreprises spécialisées dans l’intelligence artificielle, dont OpenAI soutenue par Microsoft et Google DeepMind appartenant à Alphabet, a exprimé ses inquiétudes quant aux risques posés par cette technologie émergente.

Une lettre ouverte signée par 11 employés actuels et anciens de OpenAI, ainsi que par un employé actuel et un ancien employé de Google DeepMind, a souligné que les motivations financières des entreprises d’IA entravent une supervision efficace. “Nous pensons que des structures de gouvernance d’entreprise sur mesure ne sont pas suffisantes pour changer cette situation”, ont-ils ajouté.

La lettre met également en garde contre les risques liés à une IA non réglementée, allant de la diffusion de désinformation à la perte de systèmes d’IA indépendants et à l’approfondissement des inégalités existantes, pouvant éventuellement conduire à une “extinction de l’humanité”.

Des chercheurs ont découvert des exemples de générateurs d’images issus d’entreprises telles que OpenAI et Microsoft produisant des photos contenant de la désinformation liée aux élections, malgré les politiques interdisant de tel contenu. Les entreprises d’IA ont “de faibles obligations” de partager des informations avec les gouvernements sur les capacités et les limites de leurs systèmes, a précisé la lettre, ajoutant que ces entreprises ne peuvent pas être fiables pour communiquer ces informations volontairement.

La lettre ouverte est la dernière en date à soulever des préoccupations concernant la sécurité autour de la technologie générative de l’IA, capable de produire rapidement et à faible coût du texte, des images et de l’audio ressemblant à ceux générés par des humains.

Le groupe a appelé les entreprises d’IA à faciliter un processus permettant aux employés actuels et anciens de soulever des préoccupations liées aux risques et à ne pas imposer des accords de confidentialité interdisant la critique.

Par ailleurs, la firme dirigée par Sam Altman a annoncé avoir perturbé cinq opérations d’influence secrètes visant à utiliser ses modèles d’intelligence artificielle pour des activités “deception” sur Internet.

Source : finance.yahoo.com

  • Mia Dufresne

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications