OpenAI dévoile ses modèles o1 : avancées et risques de bioterrorisme
Les derniers modèles de OpenAI ont été dévoilés jeudi, offrant des avancées significatives en matière de réflexion logique, de résolution de problèmes et de réponse à des questions scientifiques. Ces modèles sont considérés comme une étape cruciale vers le développement de l’intelligence artificielle générale (AGI) – des machines capables d’atteindre des capacités cognitives proches de celles des humains. Dans la fiche système accompagnant la description des fonctionnalités de l’IA, OpenAI reconnaît cependant que les nouveaux modèles ont également “significativement augmenté” le risque de mauvaise utilisation de la technologie, notamment en lien avec la création d’armes biologiques. Pour la première fois, la société a attribué un “niveau de risque moyen” à ses modèles en ce qui concerne les armes chimiques, biologiques, radiologiques et nucléaires (CBRN). Cela implique que la technologie a considérablement renforcé les capacités des experts à développer des armes biologiques. Les logiciels d’IA avancée capables de réaliser un raisonnement logique pas à pas offrent un potentiel accru de mauvaise utilisation, selon les experts. Yoshua Bengio, l’un des principaux chercheurs en IA, a souligné l’urgence de réglementations légales pour atténuer ces risques. Il a fait référence à un projet de loi en Californie exigeant des entreprises la mise en place de mesures de sécurité pour empêcher l’utilisation de l’IA dans le développement d’armes biologiques. “Plus l’IA progresse vers l’AGI, plus les risques sont grands si des garanties appropriées ne sont pas en place”, a averti Bengio. Des entreprises technologiques comme Google, Meta et Anthropic travaillent également actuellement au développement de systèmes d’IA avancés. Ces agents d’IA pourraient aider les individus à accomplir des tâches et offrir des opportunités commerciales potentiellement lucratives pour les entreprises confrontées aux coûts énormes du développement de l’IA. Mira Murati, directrice technologique de OpenAI, a expliqué au Financial Times que la société est particulièrement prudente lors du lancement des modèles o1, car ils possèdent des capacités étendues. Cependant, les modèles seront accessibles via ChatGPT pour les abonnés payants et via une API pour les développeurs. Murati a également ajouté que les modèles ont fait l’objet de tests de sécurité approfondis et se sont avérés significativement plus sûrs que les versions précédentes.
Avancées des nouveaux modèles d’IA d’OpenAI
Les derniers modèles de OpenAI offrent des avancées significatives en matière de réflexion logique, de résolution de problèmes et de réponse à des questions scientifiques, constituant ainsi un pas important vers le développement de l’intelligence artificielle générale (AGI).
Risques accrus liés à la mauvaise utilisation de la technologie
OpenAI reconnaît que les nouveaux modèles ont augmenté significativement le risque de mauvaise utilisation de la technologie, notamment en ce qui concerne la création d’armes biologiques. Un “niveau de risque moyen” a été attribué à ces modèles, renforçant les capacités des experts dans le développement d’armes biologiques.
Appel à des réglementations légales pour atténuer les risques
Experts mettent en garde sur le potentiel de mauvaise utilisation des logiciels d’IA avancée et soulignent l’importance de réglementations légales pour limiter ces risques, notamment en empêchant l’utilisation de l’IA dans le développement d’armes biologiques.
Développement d’IA avancée par d’autres grandes entreprises
Google, Meta et Anthropic travaillent également sur des systèmes d’IA avancés, offrant des opportunités commerciales lucratives pour les entreprises et les individus ayant besoin de solutions basées sur l’IA pour accomplir diverses tâches.
Précautions prises par OpenAI pour le lancement des modèles o1
OpenAI se montre vigilant lors du lancement des modèles o1, qui offrent des capacités étendues. Ces modèles seront accessibles aux abonnés payants via ChatGPT et aux développeurs via une API, après avoir subi des tests de sécurité approfondis pour garantir une meilleure sûreté par rapport aux versions antérieures.
Source : eulerpool.com