7 novembre 2024

Krusell France

Ta dose d'actu digital !

Départ du coleader de l’équipe IA de pointe chez OpenAI

OpenAI’s Long-Term AI Risk Team Has Disbanded
Rate this post

OpenAI : Fin de l’équipe de superalignement

En juillet de l’année dernière, OpenAI a annoncé la formation d’une nouvelle équipe de recherche qui se préparerait à l’avènement d’une intelligence artificielle supersmart capable de surpasser et de dominer ses créateurs. Ilya Sutskever, scientifique en chef d’OpenAI et l’un des cofondateurs de l’entreprise, a été nommé co-leader de cette nouvelle équipe. OpenAI a déclaré que l’équipe recevrait 20 % de sa puissance informatique.

Maintenant, l’équipe de “superalignement” d’OpenAI n’existe plus, confirme l’entreprise. Cela fait suite aux départs de plusieurs chercheurs impliqués, à la nouvelle du départ de Sutskever de l’entreprise et à la démission de l’autre coleader de l’équipe. Le travail du groupe sera absorbé dans les autres efforts de recherche d’OpenAI.

Le départ de Sutskever a fait la une des journaux car bien qu’il ait aidé le PDG Sam Altman à lancer OpenAI en 2015 et ait défini la direction de la recherche qui a abouti à ChatGPT, il faisait également partie des quatre membres du conseil d’administration qui ont renvoyé Altman en novembre. Altman a été rétabli en tant que PDG cinq jours chaotiques plus tard après une révolution massive du personnel d’OpenAI et la conclusion d’un accord dans lequel Sutskever et deux autres directeurs de l’entreprise ont quitté le conseil d’administration.

Quelques heures après l’annonce du départ de Sutskever mardi, Jan Leike, l’ancien chercheur de DeepMind qui était l’autre coleader de l’équipe de superalignement, a déclaré sur X qu’il avait démissionné.

Ni Sutskever ni Leike n’ont répondu aux demandes de commentaires. Sutskever n’a pas donné d’explication à sa décision de partir mais a exprimé son soutien pour la trajectoire actuelle d’OpenAI dans une publication sur X. “La trajectoire de l’entreprise a été rien de moins que miraculeuse, et je suis convaincu qu’OpenAI construira une AGI qui soit à la fois sûre et bénéfique” sous sa direction actuelle, a-t-il écrit.

Leike a publié un fil sur X vendredi expliquant que sa décision provenait d’un désaccord sur les priorités de l’entreprise et sur la quantité de ressources allouées à son équipe.

La dissolution de l’équipe de superalignement d’OpenAI s’ajoute aux récentes preuves d’un remaniement au sein de l’entreprise à la suite de la crise de gouvernance de novembre dernier. Deux chercheurs de l’équipe, Leopold Aschenbrenner et Pavel Izmailov, ont été renvoyés pour avoir divulgué des secrets de l’entreprise, comme l’a rapporté The Information le mois dernier. Un autre membre de l’équipe, William Saunders, a quitté OpenAI en février, selon un message sur un forum en son nom.

Conséquences dans le secteur de l’IA

Deux autres chercheurs d’OpenAI travaillant sur la politique et la gouvernance de l’IA semblent également avoir quitté l’entreprise récemment. Cullen O’Keefe a quitté son poste de responsable de la recherche sur les frontières politiques en avril, selon LinkedIn. Daniel Kokotajlo, un chercheur d’OpenAI qui a coécrit plusieurs articles sur les dangers de modèles d’IA plus capables, “a quitté OpenAI en perdant confiance dans le fait qu’elle se comporterait de manière responsable au moment de l’AGI”, selon une publication sur un forum en son nom. Aucun des chercheurs apparemment partis n’a répondu aux demandes de commentaire.

Source : www.wired.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications