22 décembre 2024

Krusell France

Ta dose d'actu digital !

OpenAI crée un comité de sécurité pour conseiller sur les décisions critiques.

OpenAI forms safety committee as it trains new artificial intelligence model
Rate this post

Nouvelles avancées de l’intelligence artificielle chez OpenAI

OpenAI renforce sa sécurité avec un nouveau comité

OpenAI met en place un comité de sécurité et de sûreté et a commencé à former un nouveau modèle d’IA pour remplacer le système GPT-4 qui sous-tend son chatbot ChatGPT. Ce startup basée à San Francisco a déclaré dans un article de blog mardi que le comité conseillera le conseil d’administration sur les “décisions critiques en matière de sécurité et de sûreté” pour ses projets et ses opérations.

Un débat autour de la sécurité de l’IA chez OpenAI

Ce comité arrive alors que le débat fait rage sur la sécurité de l’IA au sein de l’entreprise, qui a été mise en lumière après la démission du chercheur Jan Leike, qui a critiqué OpenAI pour avoir laissé la sécurité “passer au second plan par rapport aux produits attractifs”. Le co-fondateur et scientifique en chef d’OpenAI, Ilya Sutskever, a également démissionné et l’entreprise a dissous l’équipe “superalignment” axée sur les risques liés à l’IA qu’ils dirigeaient conjointement.

Leike a annoncé qu’il rejoignait la société concurrente Anthropic, fondée par d’anciens dirigeants d’OpenAI, pour “continuer la mission de superalignment” là-bas.

Un modèle d’IA de nouvelle génération en cours de formation

OpenAI a déclaré qu’il a “récemment commencé à entraîner son prochain modèle de pointe” et que ses modèles d’IA sont en tête de l’industrie en matière de capacité et de sécurité, bien qu’il n’ait pas mentionné la controverse. “Nous accueillons un débat animé à ce moment crucial,” a déclaré l’entreprise.

Les modèles d’IA sont des systèmes de prédiction qui sont entraînés sur de vastes ensembles de données pour générer du texte, des images, des vidéos et des conversations humaines sur demande. Les modèles de pointe sont les systèmes d’IA les plus puissants et les plus innovants.

Composition et mission du comité de sécurité d’OpenAI

Le comité de sécurité est composé d’insiders de l’entreprise, dont le PDG d’OpenAI, Sam Altman, et le président Bret Taylor, ainsi que quatre experts techniques et politiques d’OpenAI. Il comprend également les membres du conseil d’administration Adam D’Angelo, PDG de Quora, et Nicole Seligman, ancien avocat général de Sony. La première tâche du comité sera d’évaluer et de développer davantage les processus et les garanties d’OpenAI et de faire ses recommandations au conseil d’administration dans les 90 jours. L’entreprise a ensuite déclaré qu’elle rendrait publiquement les recommandations qu’elle adopte “de manière cohérente avec la sécurité et la sûreté.”

Source : www.news5cleveland.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications