OpenAI forme un comité pour évaluer la sécurité de l’IA
OpenAI a annoncé mardi la création d’un comité de sécurité et de sûreté chargé d’évaluer les processus et les garanties de l’entreprise face aux inquiétudes concernant l’utilisation rapide de la technologie d’intelligence artificielle en pleine évolution.
Un comité de sécurité et de sûreté pour OpenAI
Le comité devrait prendre 90 jours pour terminer son évaluation. Après cela, il présentera au conseil d’administration de l’entreprise des recommandations concernant les décisions cruciales en matière de sécurité pour les projets et les opérations d’OpenAI, a déclaré la société dans un article de blog.
Les départs des leaders d’OpenAI
Cette annonce fait suite à la démission de deux responsables de haut niveau, le cofondateur Ilya Sutskever et l’exécutif Jan Leike, de l’entreprise. Leurs départs ont soulevé des inquiétudes concernant les priorités de l’entreprise, car les deux étaient axés sur l’importance de garantir un avenir sûr pour l’humanité face à l’émergence de l’IA.
Sutskever et Leike ont dirigé l’équipe d’alignement super d’OpenAI, qui visait à mettre en place des systèmes pour limiter les risques à long terme de la technologie. Le groupe avait pour mission de réaliser des “avancées scientifiques et techniques pour orienter et contrôler les systèmes d’IA bien plus intelligents que nous”. À son départ, Leike a déclaré que la “culture de la sécurité et les processus d’OpenAI ont été relégués au second plan par rapport aux produits attractifs”.
Le nouveau comité de sécurité et de sûreté d’OpenAI
Le comité est dirigé par le président du conseil d’administration Bret Taylor, les directeurs Adam D’Angelo et Nicole Seligman et le directeur général Sam Altman. Plusieurs responsables techniques et politiques d’OpenAI font également partie du comité. OpenAI a déclaré qu’elle “consultera d’autres experts en sécurité, sûreté et technique pour soutenir ce travail”.
La formation du comité intervient alors que l’entreprise commence à travailler sur la formation de ce qu’elle appelle son “modèle de nouvelle frontière” pour l’intelligence artificielle.
Des controverses entourant l’utilisation de l’IA
Des controverses sur l’utilisation de l’IA ont pesé sur l’entreprise basée à San Francisco, notamment dans le secteur du divertissement, qui s’inquiète des implications de la technologie pour la propriété intellectuelle et le risque de perte d’emplois.
OpenAI est surtout connu pour ChatGPT et Sora, un outil de texte à vidéo qui a d’importantes répercussions potentielles pour les réalisateurs et les studios.
La société est soutenue par Microsoft et doit faire face à la concurrence d’autres entreprises qui développent leurs propres outils d’intelligence artificielle et qui bénéficient de financements importants.
Source : www.spokesman.com