Des employés d’OpenAI et de Google DeepMind demandent des protections contre les risques liés à l’IA.
Lettre des employés d’OpenAI et de Google DeepMind appelant à la protection des lanceurs d’alerte
Des employés d’OpenAI et Google DeepMind demandent une protection contre les représailles
Un groupe d’employés actuels et anciens d’OpenAI et Google DeepMind aurait signé une lettre publique appelant à une protection contre les représailles lors de la divulgation de préoccupations concernant les “risques sérieux” associés à l’intelligence artificielle (IA) développée par ces entreprises.
La lettre met en lumière le manque de surveillance gouvernementale efficace et les accords de confidentialité qui empêchent les employés de faire part de leurs préoccupations, a rapporté Bloomberg mardi (4 juin).
Les préoccupations des employés sur l’IA avancée
Les employés expriment leur inquiétude quant au manque de supervision efficace des principales entreprises d’IA, affirmant que ces sociétés ont de forts incitatifs financiers à éviter un examen approprié, selon le rapport.
Ils soutiennent que, tandis que les protections ordinaires des lanceurs d’alerte se concentrent sur les activités illégales, bon nombre des risques associés aux technologies de l’IA ne sont pas encore réglementés, laissant ainsi les employés comme l’un des rares groupes capables de rendre ces entreprises responsables devant le public.
Les mesures proposées par les employés
Les employés proposent plusieurs mesures pour aborder leurs préoccupations. Ils demandent aux entreprises d’IA de prohiber les accords de non-dénigrement liés aux préoccupations liées aux risques et d’établir un processus vérifiablement anonyme permettant au personnel de soulever des problèmes auprès des conseils d’administration et des régulateurs de l’entreprise.
Les employés exhortent également les entreprises à ne pas prendre de mesures de représailles contre les employés actuels et anciens qui partagent publiquement des informations sur les risques après avoir épuisé les processus internes.
Dans un communiqué à Bloomberg, OpenAI s’est dit fier de son bilan en matière de fourniture de systèmes d’IA capables et sûrs. La société a reconnu l’importance d’un débat rigoureux et a affirmé son engagement à s’engager avec les gouvernements, la société civile et d’autres communautés du monde entier, selon le rapport.
Source : www.pymnts.com