OpenAI forme un comité de sécurité pour ses projets IA
OpenAI crée un comité de sécurité et de protection pour ses projets IA
OpenAI, le créateur de ChatGPT, a mis en place un comité de sécurité et de protection pour superviser et recommander des mesures afin d’assurer la sûreté et la sécurité des projets et opérations de l’entreprise.
Le comité sera dirigé par les directeurs Bret Taylor, Adam D’Angelo, Nicole Seligman, et le PDG Sam Altman. Taylor assumera le rôle de président.
Les missions du comité de sécurité
La première tâche du comité sera d’évaluer et de développer davantage les processus et mesures de sauvegarde d’OpenAI au cours des 90 prochains jours, après quoi il partagera ses recommandations avec le conseil d’administration.
Suite à l’examen du conseil, OpenAI partagera publiquement une mise à jour sur les recommandations adoptées “d’une manière conforme à la sûreté et la sécurité”, a déclaré l’entreprise dans un communiqué.
Experts techniques et politiques
Les experts techniques et politiques d’OpenAI, tels que Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l’alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef), feront également partie du comité.
En outre, OpenAI collaborera avec d’autres experts en sécurité et en technique, dont d’anciens responsables de la cybersécurité comme Rob Joyce, qui conseille OpenAI sur la sécurité, et John Carlin, a ajouté l’entreprise.
OpenAI, leader de l’IA générative
Avec des produits comme ChatGPT et DALL·E, OpenAI est actuellement le leader dans le domaine de l’IA générative. Financée par Microsoft, OpenAI a été valorisée à plus de 80 milliards de dollars en février, selon un rapport du New York Times.
L’entreprise a récemment signé des accords de licence avec plusieurs sociétés de médias, dont News Corp de Rupert Murdoch, The Associated Press basée aux États-Unis, le groupe de presse allemand Axel Springer, le groupe espagnol Prisa Media, Le Monde en France, et le Financial Times basé à Londres, pour utiliser leur contenu afin de former ses modèles d’IA.
Source : pressinsider.com