Risques posés par l’IA : employés d’OpenAI et Google DeepMind tirent la sonnette d’alarme
Les risques liés à l’intelligence artificielle soulevés par des employés actuels et anciens de grandes entreprises du secteur
Risques liés à l’IA selon des employés de OpenAI et Google DeepMind
Un groupe d’employés actuels et anciens d’entreprises spécialisées dans l’intelligence artificielle, dont OpenAI soutenue par Microsoft et Google DeepMind appartenant à Alphabet, a exprimé ses inquiétudes quant aux risques posés par cette technologie émergente.
Une lettre ouverte signée par 11 employés actuels et anciens de OpenAI, ainsi que par un employé actuel et un ancien employé de Google DeepMind, a souligné que les motivations financières des entreprises d’IA entravent une supervision efficace. “Nous pensons que des structures de gouvernance d’entreprise sur mesure ne sont pas suffisantes pour changer cette situation”, ont-ils ajouté.
La lettre met également en garde contre les risques liés à une IA non réglementée, allant de la diffusion de désinformation à la perte de systèmes d’IA indépendants et à l’approfondissement des inégalités existantes, pouvant éventuellement conduire à une “extinction de l’humanité”.
Des chercheurs ont découvert des exemples de générateurs d’images issus d’entreprises telles que OpenAI et Microsoft produisant des photos contenant de la désinformation liée aux élections, malgré les politiques interdisant de tel contenu. Les entreprises d’IA ont “de faibles obligations” de partager des informations avec les gouvernements sur les capacités et les limites de leurs systèmes, a précisé la lettre, ajoutant que ces entreprises ne peuvent pas être fiables pour communiquer ces informations volontairement.
La lettre ouverte est la dernière en date à soulever des préoccupations concernant la sécurité autour de la technologie générative de l’IA, capable de produire rapidement et à faible coût du texte, des images et de l’audio ressemblant à ceux générés par des humains.
Le groupe a appelé les entreprises d’IA à faciliter un processus permettant aux employés actuels et anciens de soulever des préoccupations liées aux risques et à ne pas imposer des accords de confidentialité interdisant la critique.
Par ailleurs, la firme dirigée par Sam Altman a annoncé avoir perturbé cinq opérations d’influence secrètes visant à utiliser ses modèles d’intelligence artificielle pour des activités “deception” sur Internet.
Source : finance.yahoo.com