Favoriser l’innovation en IA : une loi fédérale est essentielle
La réglementation de l’intelligence artificielle devrait être confiée au gouvernement fédéral plutôt qu’aux États, affirme le directeur de la stratégie d’OpenAI, Jason Kwon, dans une nouvelle lettre. Selon Bloomberg, Kwon estime qu’un nouveau projet de loi sur la sécurité de l’IA envisagé en Californie pourrait ralentir les progrès et inciter les entreprises à quitter l’État.
Des politiques fédérales pour favoriser l’innovation
Un ensemble de politiques en matière d’IA piloté au niveau fédéral, plutôt qu’un patchwork de lois étatiques, encouragera l’innovation et positionnera les États-Unis comme leader dans le développement de normes mondiales. Par conséquent, nous nous joignons à d’autres laboratoires d’IA, développeurs, experts et membres de la délégation du Congrès de Californie pour nous opposer respectueusement au SB 1047 et nous réjouissons de pouvoir exposer certaines de nos principales préoccupations.
Le contenu du projet de loi
La lettre est adressée au sénateur de l’État de Californie Scott Wiener, qui a initialement présenté le projet de loi SB 1047, également connu sous le nom de Safe and Secure Innovation for Frontier Artificial Intelligence Models Act. Selon les partisans comme Wiener, ce dernier établit des normes avant le développement de modèles d’IA plus puissants, exige des précautions telles que des tests de sécurité pré-déploiement et d’autres garanties, ajoute des protections pour les lanceurs d’alerte employés dans les laboratoires d’IA, confère des pouvoirs au procureur général de la Californie pour engager des poursuites si les modèles d’IA causent des dommages, et appelle à mettre en place un «cluster informatique en nuage public» appelé CalCompute.
Réponse du sénateur de Californie
Dans sa réponse à la lettre publiée mercredi soir, Wiener souligne que les exigences proposées s’appliquent à toute entreprise opérant en Californie, qu’elle soit basée dans l’État ou non, rendant l’argument “sans aucun sens”. Il écrit également qu’OpenAI “… ne critique aucune disposition du projet de loi” et conclut en affirmant que “le SB 1047 est un projet de loi très raisonnable demandant aux grands laboratoires d’IA de faire ce à quoi ils se sont déjà engagés, à savoir tester leurs grands modèles pour les risques de sécurité catastrophiques.”
Le projet de loi est actuellement en attente de son vote final avant d’être transmis au bureau du gouverneur Gavin Newsom.
Vous pouvez consulter l’intégralité de la lettre d’OpenAI dans cet article.
Source : www.theverge.com