5 juillet 2024

Krusell France

Ta dose d'actu digital !

Des employés d’OpenAI et de Google DeepMind demandent des protections contre les risques liés à l’IA.

OpenAI Overhauls AI Safety, Races to Create ChatGPT Successor
Rate this post

Lettre des employés d’OpenAI et de Google DeepMind appelant à la protection des lanceurs d’alerte

Des employés d’OpenAI et Google DeepMind demandent une protection contre les représailles

Un groupe d’employés actuels et anciens d’OpenAI et Google DeepMind aurait signé une lettre publique appelant à une protection contre les représailles lors de la divulgation de préoccupations concernant les “risques sérieux” associés à l’intelligence artificielle (IA) développée par ces entreprises.

La lettre met en lumière le manque de surveillance gouvernementale efficace et les accords de confidentialité qui empêchent les employés de faire part de leurs préoccupations, a rapporté Bloomberg mardi (4 juin).

Les préoccupations des employés sur l’IA avancée

Les employés expriment leur inquiétude quant au manque de supervision efficace des principales entreprises d’IA, affirmant que ces sociétés ont de forts incitatifs financiers à éviter un examen approprié, selon le rapport.

Ils soutiennent que, tandis que les protections ordinaires des lanceurs d’alerte se concentrent sur les activités illégales, bon nombre des risques associés aux technologies de l’IA ne sont pas encore réglementés, laissant ainsi les employés comme l’un des rares groupes capables de rendre ces entreprises responsables devant le public.

Les mesures proposées par les employés

Les employés proposent plusieurs mesures pour aborder leurs préoccupations. Ils demandent aux entreprises d’IA de prohiber les accords de non-dénigrement liés aux préoccupations liées aux risques et d’établir un processus vérifiablement anonyme permettant au personnel de soulever des problèmes auprès des conseils d’administration et des régulateurs de l’entreprise.

Les employés exhortent également les entreprises à ne pas prendre de mesures de représailles contre les employés actuels et anciens qui partagent publiquement des informations sur les risques après avoir épuisé les processus internes.

Dans un communiqué à Bloomberg, OpenAI s’est dit fier de son bilan en matière de fourniture de systèmes d’IA capables et sûrs. La société a reconnu l’importance d’un débat rigoureux et a affirmé son engagement à s’engager avec les gouvernements, la société civile et d’autres communautés du monde entier, selon le rapport.

Source : www.pymnts.com

  • Mia Dufresne

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications