Débat intense sur l’IA “open source” : Marketing ou équité ?
Le débat sur la notion d’« open source » dans le monde de la technologie divise les entreprises spécialisées en intelligence artificielle. Elon Musk, cofondateur d’OpenAI en 2015, a poursuivi en justice la start-up et son PDG, Sam Altman, arguant que l’entreprise s’était écartée de sa mission d’ouverture. L’administration Biden examine actuellement les risques et les bénéfices des modèles open source.
Les arguments pour et contre l’open source A.I.
Les partisans des modèles d’intelligence artificielle open source affirment qu’ils sont plus équitables et plus sûrs pour la société, tandis que les détracteurs pensent qu’ils sont plus susceptibles d’être utilisés à des fins malveillantes. Cependant, un gros point d’interrogation dans ce débat est l’absence de définition claire de ce que signifie réellement l’open source A.I. Certains accusent même les entreprises spécialisées en intelligence artificielle de « faire de l’openwashing », en utilisant de façon malhonnête le terme d’« open source » pour se donner une bonne image.
Opinions et réactions à ce sujet
Dans un article publié sur Open Future, un groupe de réflexion européen soutenant la libération des codes sources, Alek Tarkowski a déclaré : « Alors que les règles se précisent, un défi majeur est de construire des garde-fous suffisants contre les tentatives des entreprises de « faire de l’openwashing ». Le mois dernier, la Linux Foundation, une organisation à but non lucratif soutenant les projets de logiciels open source, a mis en garde contre le fait que « cette tendance à l’openwashing menace de compromettre la prémisse même de l’ouverture — le partage libre de connaissances pour permettre l’inspection, la réplication et l’avancement collectif ».
Les organisations qui appliquent l’étiquette « open source » à leurs modèles peuvent adopter des approches très différentes en matière d’ouverture. Par exemple, OpenAI, la start-up qui a lancé le chatbot ChatGPT en 2022, divulgue peu d’informations sur ses modèles (malgré le nom de l’entreprise). Meta qualifie ses modèles LLaMA 2 et LLaMA 3 d’open source mais impose des restrictions à leur utilisation. Les modèles les plus ouverts, principalement gérés par des organisations à but non lucratif, divulguent le code source et les données d’apprentissage sous-jacentes, et utilisent une licence open source permettant une large réutilisation. Mais même avec ces modèles, il reste des obstacles à la possibilité pour d’autres de les reproduire.
La complexité de la démocratisation de l’accès à l’intelligence artificielle
La principale raison en est que si les logiciels open source permettent à quiconque de les reproduire ou de les modifier, la construction d’un modèle d’intelligence artificielle nécessite bien plus que du code. Seules quelques entreprises disposent des ressources de calcul et de la qualification des données nécessaires. C’est pourquoi certains experts estiment que qualifier toute intelligence artificielle d’« open source » est au mieux trompeur et au pire un outil marketing.
« Même les systèmes d’intelligence artificielle maximisant l’ouverture n’autorisent pas l’accès libre aux ressources nécessaires pour ‘démocratiser’ l’accès à l’intelligence artificielle ou permettre un examen complet », a déclaré David Gray Widder, chercheur postdoctoral à Cornell Tech, spécialisé dans l’utilisation du terme « open source » par les entreprises d’intelligence artificielle.
Les efforts pour clarifier la notion d’open source A.I.
Des recherches menées à la Linux Foundation en mars ont conduit à la publication d’un cadre classant les modèles d’intelligence artificielle open source dans diverses catégories. Par ailleurs, l’Open Source Initiative, une autre organisation à but non lucratif, tente d’élaborer une définition. Cependant, M. Widder et d’autres doutent qu’une véritable intelligence artificielle open source soit possible, car les exigences en ressources nécessaires à la construction de ces modèles ne vont pas disparaître.
Source : www.nytimes.com