22 décembre 2024

Krusell France

Ta dose d'actu digital !

Des employés d’entreprises d’IA demandent une meilleure protection des lanceurs d’alerte

OpenAI and Google DeepMind workers warn of AI industry risks in open letter | Artificial intelligence (AI)
Rate this post

Des employés actuels et anciens de grandes entreprises d’intelligence artificielle ont publié une lettre ouverte mardi dernier mettant en garde contre l’absence de surveillance de la sécurité au sein de l’industrie et appelant à une meilleure protection des lanceurs d’alerte. Cette lettre, qui réclame un “droit d’alerte sur l’intelligence artificielle”, est l’une des déclarations les plus publiques sur les dangers de l’IA émanant d’employés au sein d’une industrie généralement secrète. Onze employés actuels et anciens d’OpenAI ont signé la lettre, ainsi que deux employés actuels ou anciens de Google DeepMind, l’un d’eux ayant travaillé précédemment chez Anthropic. “Les entreprises d’IA détiennent des informations non publiques importantes sur les capacités et limites de leurs systèmes, l’efficacité de leurs mesures de protection, et les niveaux de risque de différents types de dommages”, indique la lettre. “Cependant, elles n’ont actuellement que de faibles obligations de partager certaines de ces informations avec les gouvernements, et aucune avec la société civile. Nous ne pensons pas qu’elles puissent toutes être fiables pour les partager volontairement.”.

Des pratiques défendues par certaines entreprises

OpenAI a défendu ses pratiques dans une déclaration, affirmant qu’elle avait des moyens tels qu’une ligne d’assistance pour signaler les problèmes au sein de l’entreprise et qu’elle ne lançait pas de nouvelles technologies tant que des garanties appropriées n’étaient pas en place. Google n’a pas immédiatement répondu à une demande de commentaire. “Nous sommes fiers de notre bilan en fournissant les systèmes AI les plus capables et les plus sûrs et croyons en notre approche scientifique pour aborder les risques. Nous sommes d’accord sur le fait que le débat rigoureux est crucial étant donné l’importance de cette technologie et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés à travers le monde”, a déclaré un porte-parole d’OpenAI.

Appels à une plus grande transparence

Les préoccupations concernant les dommages potentiels de l’intelligence artificielle existent depuis des décennies, mais le boom de l’IA de ces dernières années a intensifié ces craintes et a laissé les régulateurs à la traîne face aux avancées technologiques. Alors que les entreprises d’IA ont publiquement affirmé leur engagement à développer la technologie en toute sécurité, les chercheurs et les employés ont mis en garde contre le manque de surveillance à mesure que les outils d’IA exacerbent les dommages sociaux existants ou en créent de nouveaux. La lettre des employés actuels et anciens d’entreprises d’IA, qui a été rapportée pour la première fois par le New York Times, appelle à une meilleure protection des travailleurs des entreprises d’IA avancées qui décident de signaler des problèmes de sécurité.

Source : www.theguardian.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications