19 septembre 2024

Krusell France

Ta dose d'actu digital !

Anciens chercheurs d’OpenAI alertent sur les dangers après l’opposition de la société à un projet de loi sur la sécurité de l’IA

Former OpenAI researchers warn of ‘catastrophic harm’ after the company opposes AI safety bill
Rate this post

L’opposition de anciens chercheurs d’OpenAI à un projet de loi californien visant à mettre en place des protocoles de sécurité stricts dans le développement de l’IA et incluant un “interrupteur d’arrêt” est en train de faire du bruit.

Des anciens chercheurs expriment leur désaccord

Dans une lettre adressée au gouverneur de Californie Gavin Newsom et à d’autres législateurs et partagée avec Politico, les anciens employés ont exprimé leur déception face à l’opposition d’OpenAI au projet de loi, qualifiant cette décision de décevante mais non surprenante.

“Nous avons rejoint OpenAI car nous voulions garantir la sécurité des systèmes d’IA incroyablement puissants que l’entreprise développe”, ont écrit les chercheurs, William Saunders et Daniel Kokotajlo, dans la lettre. “Mais nous avons démissionné d’OpenAI car nous avons perdu confiance en sa capacité à développer ses systèmes d’IA de manière sûre, honnête et responsable.”

Des critiques constructives ou non ?

Saunders et Kokotajlo ont également mentionné le soutien public du PDG d’OpenAI, Sam Altman, à la régulation de l’IA, citant le témoignage d’Altman devant le congrès appelant à une intervention gouvernementale, mais soulignant que “lorsqu’une régulation concrète est proposée, il s’y oppose”.

Un porte-parole d’OpenAI a déclaré à BI dans un communiqué : “Nous sommes en total désaccord avec la déformation de notre position sur le SB 1047.” Le porte-parole a dirigé BI vers une lettre séparée écrite par Jason Kwon, chef de la stratégie d’OpenAI, au sénateur californien Scott Wiener, auteur du projet de loi, expliquant l’opposition de l’entreprise.

SB1047 “a suscité un débat réfléchi”, et OpenAI soutient certaines de ses dispositions de sécurité, indique la lettre de Kwon datée un jour avant l’envoi de la lettre des chercheurs. Cependant, en raison des implications en termes de sécurité nationale du développement de l’IA, l’entreprise estime que la régulation devrait être “façonnée et mise en œuvre au niveau fédéral”.

Des avis divergents

Cependant, Saunders et Kokotajlo ne sont pas convaincus que la volonté de légiférer au niveau fédéral soit la seule raison de l’opposition d’OpenAI au SB 1047 de la Californie, estimant que les critiques de l’entreprise à l’égard du projet de loi “ne sont pas constructives et ne semblent pas être de bonne foi”.

Les anciens employés d’OpenAI ont conclu : “Nous espérons que le législateur californien et le gouverneur Newsom feront ce qu’il convient et adopteront le SB 1047. Avec une régulation appropriée, nous espérons qu’OpenAI pourra répondre à sa mission de développer une IA générale en toute sécurité.”. Les représentants de Wiener et de Newsom n’ont pas répondu immédiatement aux demandes de commentaires de BI.

Source : dnyuz.com

  • Mia Dufresne

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications