21 novembre 2024

Krusell France

Ta dose d'actu digital !

OpenAI dissout son équipe Superalignment après les départs de ses leaders

OpenAI Scraps Team That Researched Risk of 'Rogue' AI
Rate this post

Au cours de la même semaine où OpenAI a lancé GPT-4o, son intelligence artificielle la plus proche du comportement humain, la société a dissous son équipe Superalignment, comme l’a rapporté Wired en premier.

Équipe Superalignment d’OpenAI dissoute

OpenAI a créé son équipe Superalignment en juillet 2023, co-dirigée par Ilya Sutskever et Jan Leike. Cette équipe était dédiée à atténuer les risques liés à l’IA, tels que la possibilité qu’elle “dévie de sa trajectoire”.

Il a été rapporté que l’équipe s’est désintégrée quelques jours après la démission de ses leaders, Ilya Sutskever et Jan Leike, annoncée plus tôt cette semaine. Sutskever a déclaré dans son message qu’il se sentait “confiant qu’OpenAI construira une AGI qui soit à la fois sûre et bénéfique” sous la direction actuelle.

Il a également ajouté qu’il était “enthousiaste pour ce qui va suivre”, qu’il a décrit comme un “projet qui lui tient particulièrement à cœur”. L’ancien dirigeant d’OpenAI n’a pas donné plus de détails mais a déclaré qu’il les partagerait en temps voulu.

Des divergences sur les priorités

Sutskever, cofondateur et ancien scientifique en chef d’OpenAI, a fait parler de lui en annonçant son départ. L’exécutif a joué un rôle dans la mise à l’écart du PDG Sam Altman en novembre. Malgré des regrets exprimés ultérieurement pour sa contribution au renvoi d’Altman, l’avenir de Sutskever chez OpenAI était remis en question depuis le retour d’Altman.

Suite à l’annonce de Sutskever, Leike a publié sur X, anciennement Twitter, qu’il quittait également OpenAI. L’ancien dirigeant a publié une série de messages expliquant son départ, survenu après des désaccords sur les priorités principales de l’entreprise depuis “un certain temps”.

Une mission ambitieuse

L’objectif de l’équipe Superalignment était de “résoudre les défis techniques fondamentaux de l’alignement de la superintelligence en quatre ans”, un objectif que la société a admis être “incroyablement ambitieux”. Ils ont également ajouté qu’ils n’étaient pas certains de réussir.

Certains des risques sur lesquels l’équipe a travaillé comprenaient “l’abus, la perturbation économique, la désinformation, les biais et discriminations, l’addiction et la dépendance excessive”. La société a déclaré dans son message que le travail de la nouvelle équipe s’ajoutait aux travaux existants chez OpenAI visant à améliorer la sécurité des modèles actuels, tels que ChatGPT.

Certains membres restants de l’équipe ont été intégrés à d’autres équipes d’OpenAI, a rapporté Wired. OpenAI n’a pas répondu à une demande de commentaire.

Source : www.businessinsider.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications