19 janvier 2025

Krusell France

Ta dose d'actu digital !

Analyse: les modèles IA “ouverts” cachent-ils une réalité différente?

Most Supposedly 'Open' AI Systems Are Actually Closed—and That’s a Problem
Rate this post

Les modèles AI “open” ont beaucoup à offrir. La pratique de partager le code source avec le public favorise l’innovation et démocratise l’IA en tant qu’outil.
Ou du moins, c’est ce que l’on dit. Une nouvelle analyse publiée dans Nature apporte une nuance à ce récit: la plupart des modèles AI soi-disant “ouverts”, tels que le Llama 3 de Meta, ne le sont guère.
Plutôt que d’encourager ou de bénéficier aux petites startups, la “rhétorique de l’ouverture est souvent utilisée de manière à…aggraver la concentration du pouvoir” dans de grandes entreprises technologiques, ont écrit David Widder de l’Université Cornell, Meredith Whittaker de la Fondation Signal et Sarah West de l’Institut AI Now.

La transparence, la réutilisabilité et l’extensibilité

Pourquoi s’en soucier? Débattre de l’ouverture de l’IA semble purement académique. Mais avec l’utilisation croissante de ChatGPT et d’autres grands modèles linguistiques, les décideurs sont en train de s’activer pour suivre le rythme. Les modèles peuvent-ils être autorisés dans les écoles ou les entreprises? Quels garde-fous devraient être en place pour protéger contre les abus?
Et peut-être plus important encore, la plupart des modèles AI sont contrôlés par Google, Meta et d’autres géants technologiques, qui ont l’infrastructure et les moyens financiers pour soit développer soit accorder une licence de la technologie – et ainsi guider l’évolution de l’IA pour répondre à leurs incitations financières.

Les législateurs du monde entier ont pris conscience de cela. Cette année, l’Union européenne a adopté l’Acte sur l’IA, la première législation complète au monde visant à garantir que les systèmes AI utilisés sont “sûrs, transparents, non discriminatoires et respectueux de l’environnement”. En septembre, il y avait plus de 120 projets de loi sur l’IA au Congrès, encadrant la confidentialité, la responsabilité et la transparence.

En théorie, les modèles AI ouverts peuvent répondre à ces besoins. Mais “lorsque les politiques sont façonnées, les définitions comptent”, ont écrit les experts.
Dans cette nouvelle analyse, ils ont décomposé le concept de “l’ouverture” des modèles AI tout au long du cycle de développement et ont identifié comment le terme peut être mal utilisé.

La notion d’ouverture, en fait

Le terme “open source” est aussi vieux que le logiciel lui-même.
Au début du siècle, de petits groupes de rebelles informatiques ont publié du code pour des logiciels libres que n’importe qui pouvait télécharger et utiliser en défiance du contrôle des entreprises. Ils avaient une vision: les logiciels open source, tels que des traitements de texte similaires à ceux de Microsoft, pourraient équilibrer les forces pour les petits acteurs et permettre l’accès à des personnes qui ne pouvaient pas se permettre la technologie. Le code est également devenu un terrain de jeu, où des ingénieurs logiciels enthousiastes ont bidouillé pour découvrir les défauts nécessitant une correction – ce qui a permis d’obtenir des logiciels plus utilisables et sécurisés.

Source : singularityhub.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications