Risques et défis de l’IA : des employés tirent la sonnette d’alarme
Les risques liés à la technologie de l’intelligence artificielle soulevés par d’anciens et actuels employés d’entreprises telles que OpenAI soutenue par Microsoft et Google DeepMind, inquiètent de nombreux experts.
Des inquiétudes sur la gouvernance des entreprises d’IA
Une lettre ouverte rédigée par un groupe de 11 employés actuels et anciens d’OpenAI, ainsi que par des employés actuels et anciens de Google DeepMind, met en garde contre les risques posés par les motivations financières des entreprises d’IA.
Les chercheurs ont déjà identifié des exemples de générateurs d’images provenant d’entreprises telles que OpenAI et Microsoft produisant des photos contenant des désinformations liées aux élections, malgré les règles interdisant de tels contenus.
L’importance d’une transparence accrue
Les entreprises d’IA ont des “faibles obligations” envers les gouvernements pour partager des informations sur les capacités et les limites de leurs systèmes, selon la lettre. Elles ne peuvent pas non plus être fiables pour partager ces informations de manière volontaire.
Cette lettre ouverte est la dernière en date à soulever des inquiétudes sur la technologie d’intelligence artificielle générative, capable de produire rapidement et à moindre coût du texte, des images et des sons de qualité humaine.
Appel à une régulation plus stricte
Le groupe a exhorté les entreprises d’IA à faciliter un processus permettant aux employés actuels et anciens de signaler les risques et à ne pas imposer des accords de confidentialité interdisant la critique.
Par ailleurs, la société dirigée par Sam Altman a annoncé avoir perturbé cinq opérations d’influence secrètes visant à utiliser ses modèles d’intelligence artificielle pour des activités de “duperie” sur internet.
Source : cyprus-mail.com