Risques catastrophiques IA soulignent besoin lois lanceur alerte
Les risques catastrophiques liés à l’IA soulignent le besoin de lois protégeant les lanceurs d’alerte
IA et protection des lanceurs d’alerte
Alors que l’utilisation de l’IA se développe, le nombre de lanceurs d’alerte signalant des pratiques dangereuses observées dans les entreprises, allant de la discrimination à la menace d’extinction humaine, pourrait potentiellement augmenter. Cependant, sans lois spécifiques protégeant ces lanceurs d’alerte, ces derniers courent des risques personnels.
Mise en lumière des dangers
Les dangers de dénoncer des pratiques liées à l’IA ont été soulignés dans une lettre ouverte cette semaine par quelques employés actuels et anciens de OpenAI, Google DeepMind et Anthropic. Les signataires ont souligné à la fois les avantages et les risques de l’IA et réclament des protections légales pour les lanceurs d’alerte de l’industrie de l’IA, ainsi que des pratiques sectorielles facilitant des discussions plus ouvertes.
Le cadre légal de l’IA
Les législateurs californiens font avancer une loi spécifique protégeant les lanceurs d’alerte de l’IA. Le sénateur de l’État, Scott Wiener, parraine une législation (SB 1047) visant à protéger les travailleurs des entreprises développant de grands systèmes d’IA “frontaliers”. Cette initiative répond directement aux préoccupations croissantes concernant les risques potentiels posés par des technologies d’IA avancées.
Réponse de l’industrie
En réponse à la lettre ouverte, OpenAI a déclaré soutenir la réglementation gouvernementale de l’industrie de l’IA et être activement impliquée dans des discussions avec les décideurs politiques. Cependant, les experts estiment que davantage est nécessaire pour protéger les travailleurs de l’IA.
Source : whistleblower.org