16 septembre 2024

Krusell France

Ta dose d'actu digital !

California : l’IA pour tester les dégâts dans la société : nouveau projet de loi en cours.

CA Bill to Rein in AI Likely Headed to Newsom’s Desk
Rate this post

Californie : vote clé pour une loi controversée sur l’IA

Les législateurs californiens ont pris un vote clé aujourd’hui pour adopter un projet de loi controversé qui exige des entreprises développant ou modifiant des formes puissantes d’intelligence artificielle de tester leur capacité à causer des dommages graves à la société.

Après un vote de 32 à 1 au Sénat en mai, l’Assemblée a voté 41 à 9 pour adopter le projet de loi en fin de journée mercredi dernier. Le Sénat doit prendre un dernier vote pour que le projet de loi parvienne au gouverneur Gavin Newsom, en concordance avec d’éventuels amendements à l’Assemblée.

En vertu du projet de loi du Sénat 1047, les entreprises dépensant 100 millions de dollars pour former un modèle d’IA ou 10 millions de dollars pour en modifier un doivent tester le modèle pour sa capacité à permettre des cyberattaques ou des attaques sur les infrastructures ou encore le développement d’armes chimiques, biologiques, radiologiques ou nucléaires.

Des avis partagés et des acteurs influents

Huit membres du Congrès représentant des districts californiens ont récemment pris l’initiative inhabituelle d’appeler Newsom à mettre son veto au projet de loi. Il n’est pas clair s’il le fera. En mai, lors d’un symposium sur l’IA générative exigé par un décret qu’il a signé, Newsom a déclaré que la Californie doit répondre aux appels à la réglementation tout en évitant une surréglementation. La Californie abrite de nombreuses entreprises d’IA dominantes dans le monde.

Des intérêts puissants se sont prononcés en faveur et contre le projet de loi. L’opposition est venue d’entreprises telles que Google et Meta, le fabricant de ChatGPT OpenAI, l’incubateur de startups Y Combinator et Fei-Fei Li, conseillère du président Joe Biden et coorganisatrice du symposium sur l’IA générative ordonné par Newsom. Ils font valoir que les coûts de conformité au projet de loi nuiront à l’industrie, en particulier aux startups, et décourageront la publication d’outils d’IA en open source, les entreprises craignant une responsabilité légale en vertu du projet de loi.

Les lanceurs d’alerte qui ont travaillé chez OpenAI et Anthropic, une entreprise cofondée par d’anciens employés d’OpenAI, soutiennent le projet de loi. Également en faveur du projet de loi se trouve Elon Musk, PDG de Twitter, qui a contribué à la création d’OpenAI, et le chercheur en IA Yoshua Bengio, souvent cité. Ils font valoir, entre autres, que les outils d’IA posent des dangers significatifs et que le gouvernement fédéral n’a pas fait assez pour s’attaquer à ces dangers, notamment par le biais de la réglementation.

Une réglementation nécessaire pour protéger l’intérêt public

Le sénateur Scott Wiener, démocrate de San Francisco et auteur du projet de loi, a déclaré que le but du SB 1047 est de codifier les tests de sécurité auxquels les entreprises se sont déjà engagées avec le président Biden et les dirigeants d’autres pays. “Avec ce vote, l’Assemblée a pris l’étape vraiment historique de travailler de manière proactive pour garantir qu’une nouvelle technologie passionnante protège l’intérêt public à mesure qu’elle progresse”, a déclaré Wiener dans un communiqué de presse mercredi dernier.

L’année dernière, les grandes entreprises d’IA ont conclu des accords volontaires avec la Maison Blanche et les dirigeants gouvernementaux en Allemagne, en Corée du Sud et au Royaume-Uni pour tester leurs modèles d’IA pour des capacités dangereuses. En réponse à l’opposition d’OpenAI au projet de loi, Wiener a rejeté l’affirmation selon laquelle l’adoption du SB 1047 entraînerait le départ des entreprises de l’État, la qualifiant d’argument “éculé”.

Source : www.sanjoseinside.com

  • Mia Dufresne

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications