22 décembre 2024

Krusell France

Ta dose d'actu digital !

Appel des ex-salariés d’OpenAI pour protéger ceux qui signalent les risques de l’IA

Former OpenAI employees lead push to protect whistleblowers flagging artificial intelligence risks
Rate this post

Des employés d’OpenAI réclament une protection accrue pour les lanceurs d’alerte sur les dangers de l’IA

Un groupe d’actuels et anciens employés d’OpenAI demande au créateur de ChatGPT et à d’autres entreprises d’intelligence artificielle de protéger les salariés qui signalent les risques liés à la technologie de l’IA.

Une lettre ouverte publiée mardi demande aux entreprises technologiques de mettre en place des protections renforcées pour les lanceurs d’alerte afin que les chercheurs aient le “droit d’avertir” des dangers liés à l’IA sans craindre de représailles.

Le développement de systèmes d’IA plus puissants “avance rapidement et il y a beaucoup de fortes incitations à avancer sans une prudence adéquate”, a déclaré l’ancien ingénieur d’OpenAI, Daniel Ziegler, l’un des organisateurs de la lettre ouverte.

Ziegler a déclaré dans une interview mardi qu’il n’avait pas peur de parler en interne lors de son passage chez OpenAI entre 2018 et 2021, pendant lequel il a contribué au développement de certaines techniques qui ont ensuite rendu ChatGPT si performant. Mais il craint maintenant que la course à la commercialisation rapide de la technologie ne pousse OpenAI et ses concurrents à négliger les risques.

Un autre co-organisateur, Daniel Kokotajlo, a déclaré qu’il avait quitté OpenAI plus tôt cette année “parce que j’avais perdu espoir qu’ils agissent de manière responsable”, notamment alors qu’ils tentent de construire des systèmes d’IA surpassant l’intelligence humaine.

“Ils et d’autres ont adhéré à l’approche ‘avancer rapidement et casser des choses’, ce qui est à l’opposé de ce qui est nécessaire pour une technologie aussi puissante et aussi mal comprise”, a déclaré Kokotajlo dans un communiqué écrit.

Les entreprises d’IA appelées à offrir des garanties aux lanceurs d’alerte

OpenAI a répondu à la lettre en indiquant qu’elle dispose déjà de mesures permettant aux employés d’exprimer leurs préoccupations, notamment une ligne d’intégrité anonyme.

“Nous sommes fiers de notre bilan en matière de fourniture de systèmes d’IA les plus performants et les plus sûrs et croyons en notre approche scientifique pour traiter les risques”, a déclaré l’entreprise dans un communiqué. “Nous sommes d’accord pour dire que le débat rigoureux est crucial étant donné l’importance de cette technologie et nous continuerons à dialoguer avec les gouvernements, la société civile et les autres communautés du monde entier.”

La lettre est signée par 13 personnes, la plupart étant d’anciens employés d’OpenAI et deux travaillant ou ayant travaillé pour DeepMind de Google. Quatre sont répertoriés comme des employés actuels d’OpenAI souhaitant garder l’anonymat. La lettre demande aux entreprises de cesser d’obliger les travailleurs à conclure des accords de “non-dénigrement” qui peuvent les punir en leur retirant un avantage financier clé – leurs investissements en actions – s’ils critiquent l’entreprise après leur départ.

Plusieurs signataires de la lettre, dont Ziegler, ont des liens avec l’altruisme efficace, un mouvement social philanthropique qui défend des causes telles que la réduction des pires impacts potentiels de l’IA. Ziegler a déclaré qu’il n’est pas seulement préoccupé par les risques futurs “catastrophiques” des systèmes d’IA incontrôlables, mais aussi par l’équité, l’utilisation abusive des produits, le remplacement des emplois et le potentiel des IA très réalistes à manipuler les gens sans les bonnes garanties.

Source : www.wjtv.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications