OpenAI dissout son équipe Superalignment après les départs de ses leaders
Au cours de la même semaine où OpenAI a lancé GPT-4o, son intelligence artificielle la plus proche du comportement humain, la société a dissous son équipe Superalignment, comme l’a rapporté Wired en premier.
Équipe Superalignment d’OpenAI dissoute
OpenAI a créé son équipe Superalignment en juillet 2023, co-dirigée par Ilya Sutskever et Jan Leike. Cette équipe était dédiée à atténuer les risques liés à l’IA, tels que la possibilité qu’elle “dévie de sa trajectoire”.
Il a été rapporté que l’équipe s’est désintégrée quelques jours après la démission de ses leaders, Ilya Sutskever et Jan Leike, annoncée plus tôt cette semaine. Sutskever a déclaré dans son message qu’il se sentait “confiant qu’OpenAI construira une AGI qui soit à la fois sûre et bénéfique” sous la direction actuelle.
Il a également ajouté qu’il était “enthousiaste pour ce qui va suivre”, qu’il a décrit comme un “projet qui lui tient particulièrement à cœur”. L’ancien dirigeant d’OpenAI n’a pas donné plus de détails mais a déclaré qu’il les partagerait en temps voulu.
Des divergences sur les priorités
Sutskever, cofondateur et ancien scientifique en chef d’OpenAI, a fait parler de lui en annonçant son départ. L’exécutif a joué un rôle dans la mise à l’écart du PDG Sam Altman en novembre. Malgré des regrets exprimés ultérieurement pour sa contribution au renvoi d’Altman, l’avenir de Sutskever chez OpenAI était remis en question depuis le retour d’Altman.
Suite à l’annonce de Sutskever, Leike a publié sur X, anciennement Twitter, qu’il quittait également OpenAI. L’ancien dirigeant a publié une série de messages expliquant son départ, survenu après des désaccords sur les priorités principales de l’entreprise depuis “un certain temps”.
Une mission ambitieuse
L’objectif de l’équipe Superalignment était de “résoudre les défis techniques fondamentaux de l’alignement de la superintelligence en quatre ans”, un objectif que la société a admis être “incroyablement ambitieux”. Ils ont également ajouté qu’ils n’étaient pas certains de réussir.
Certains des risques sur lesquels l’équipe a travaillé comprenaient “l’abus, la perturbation économique, la désinformation, les biais et discriminations, l’addiction et la dépendance excessive”. La société a déclaré dans son message que le travail de la nouvelle équipe s’ajoutait aux travaux existants chez OpenAI visant à améliorer la sécurité des modèles actuels, tels que ChatGPT.
Certains membres restants de l’équipe ont été intégrés à d’autres équipes d’OpenAI, a rapporté Wired. OpenAI n’a pas répondu à une demande de commentaire.
Source : www.businessinsider.com