Nouvelle approche d’OpenAI pour rendre l’IA compréhensible et fiable.
OpenAI a publié aujourd’hui un document de recherche qui expose une nouvelle manière d’améliorer la clarté et l’explicabilité des réponses des modèles d’intelligence artificielle générative.
Un jeu prover-verificateur pour améliorer la confiance envers les systèmes d’IA
L’approche vise à renforcer la confiance dans les systèmes d’IA afin qu’ils puissent être fiables dans les cas d’utilisation les plus critiques où l’exactitude est primordiale. Le principe consiste à opposer deux modèles dans un “jeu de prover-verificateur”. Dans ce jeu, un modèle est désigné comme “prover” et doit expliquer ses solutions à un problème donné, tandis que l’autre est désigné comme “vérificateur” et doit montrer si le prover a raison ou tort.
Le but de ce jeu est d’apprendre au prover à produire des réponses suffisamment simples pour que le vérificateur les comprenne. Selon OpenAI, cela se traduira par des modèles d’IA capables de fournir des résultats plus compréhensibles et vérifiables pour les utilisateurs humains.
Expérimentations concluantes avec des problèmes mathématiques simples
Pour leurs expériences, les chercheurs d’OpenAI ont testé la méthode en utilisant des problèmes de mathématiques d’école élémentaire. Ils ont découvert que le modèle prover optimisé pour la correction produisait des réponses exactes mais difficiles à comprendre. Ils ont également constaté que le modèle de vérification était deux fois plus efficace que les humains pour repérer les réponses incorrectes produites par le modèle de prover rusé.
Alors que le jeu progressait, les chercheurs ont constaté que les réponses des modèles prover utiles devenaient de plus en plus faciles à comprendre. Ils ont conclu qu’un modèle de vérification rigoureux, capable de distinguer de manière fiable les réponses bonnes et mauvaises même lorsque le prover tente de le tromper, combiné à un modèle de prover utile, peut être un outil puissant dans la quête de l’explicabilité de l’IA. C’est une façon prometteuse de construire des systèmes d’IA dans des secteurs où leurs réponses doivent être extrêmement fiables et précises, comme dans le domaine médical, financier et juridique, a déclaré OpenAI.
Les résultats du modèle Prover-Verificateur se sont avérés plus précis et compréhensibles qu’un GPT-4 classique.
Source : siliconangle.com