27 janvier 2025

Krusell France

Ta dose d'actu digital !

Nouvelle approche d’OpenAI pour rendre l’IA compréhensible et fiable.

OpenAI researchers pit two AI models against each other in a game of deception to improve AI explainability
Rate this post

OpenAI a publié aujourd’hui un document de recherche qui expose une nouvelle manière d’améliorer la clarté et l’explicabilité des réponses des modèles d’intelligence artificielle générative.

Un jeu prover-verificateur pour améliorer la confiance envers les systèmes d’IA

L’approche vise à renforcer la confiance dans les systèmes d’IA afin qu’ils puissent être fiables dans les cas d’utilisation les plus critiques où l’exactitude est primordiale. Le principe consiste à opposer deux modèles dans un “jeu de prover-verificateur”. Dans ce jeu, un modèle est désigné comme “prover” et doit expliquer ses solutions à un problème donné, tandis que l’autre est désigné comme “vérificateur” et doit montrer si le prover a raison ou tort.

Le but de ce jeu est d’apprendre au prover à produire des réponses suffisamment simples pour que le vérificateur les comprenne. Selon OpenAI, cela se traduira par des modèles d’IA capables de fournir des résultats plus compréhensibles et vérifiables pour les utilisateurs humains.

Expérimentations concluantes avec des problèmes mathématiques simples

Pour leurs expériences, les chercheurs d’OpenAI ont testé la méthode en utilisant des problèmes de mathématiques d’école élémentaire. Ils ont découvert que le modèle prover optimisé pour la correction produisait des réponses exactes mais difficiles à comprendre. Ils ont également constaté que le modèle de vérification était deux fois plus efficace que les humains pour repérer les réponses incorrectes produites par le modèle de prover rusé.

Alors que le jeu progressait, les chercheurs ont constaté que les réponses des modèles prover utiles devenaient de plus en plus faciles à comprendre. Ils ont conclu qu’un modèle de vérification rigoureux, capable de distinguer de manière fiable les réponses bonnes et mauvaises même lorsque le prover tente de le tromper, combiné à un modèle de prover utile, peut être un outil puissant dans la quête de l’explicabilité de l’IA. C’est une façon prometteuse de construire des systèmes d’IA dans des secteurs où leurs réponses doivent être extrêmement fiables et précises, comme dans le domaine médical, financier et juridique, a déclaré OpenAI.

Les résultats du modèle Prover-Verificateur se sont avérés plus précis et compréhensibles qu’un GPT-4 classique.

Source : siliconangle.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications