30 octobre 2024

Krusell France

Ta dose d'actu digital !

Alerte : Employés d’OpenAI et Google DeepMind contre l’IA sans contrôle

Employees Say OpenAI and Google DeepMind Are Hiding Dangers
Rate this post

L’intelligence artificielle (IA) est une technologie révolutionnaire qui suscite à la fois fascination et craintes. Récemment, un groupe d’anciens employés et d’employés actuels d’OpenAI et de Google DeepMind ont signé une lettre mettant en garde contre les dangers de l’IA avancée, accusant les entreprises de privilégier les gains financiers au détriment de la supervision. Cette coalition souligne que les systèmes d’IA peuvent causer des préjudices graves en l’absence d’une réglementation adéquate.

Des risques à prendre au sérieux

Les 13 signataires de la lettre, principalement des employés d’OpenAI, alertent sur les risques potentiels de l’IA avancée, allant de l’accentuation des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes autonomes d’IA, pouvant entraîner l’extinction de l’humanité.

Il est important de souligner que les signataires sont convaincus que le débat rigoureux sur les risques liés à cette technologie est crucial étant donné son importance. Toutefois, de nombreux employés se retrouvent entravés par des accords de confidentialité qui les empêchent d’exprimer publiquement leurs préoccupations.

Des demandes claires envers les entreprises d’IA

Les auteurs de la lettre ont formulé quatre demandes aux entreprises travaillant sur l’IA avancée : cesser d’obliger les employés à des accords les empêchant de critiquer leur employeur pour des préoccupations liées aux risques, créer un processus anonyme permettant aux employés de soulever leurs inquiétudes auprès des membres du conseil d’administration et d’autres régulateurs pertinents, soutenir une “culture de la critique ouverte” et ne pas se venger contre d’anciens employés qui partagent des informations confidentielles liées aux risques.

Il est essentiel que les employés et les lanceurs d’alerte puissent s’exprimer librement sur ce sujet sans craindre de représailles, car cela permet une prise de décision plus éclairée concernant le développement de la technologie.

La régulation de l’IA à l’échelle mondiale

Face à ces enjeux, les gouvernements du monde entier commencent à réglementer l’IA, bien que le progrès soit encore lent par rapport à l’évolution rapide de cette technologie. Par exemple, l’Union européenne a adopté cette année la première législation complète sur l’IA au monde. Dans ce contexte, l’impulsion internationale en faveur de la sécurité de l’IA s’est concrétisée à travers des sommets sur la sécurité de l’IA au Royaume-Uni et en Corée du Sud, ainsi qu’aux Nations unies en octobre 2023.

En fin de compte, il est essentiel que les entreprises et les régulateurs collaborent pour garantir que l’IA avancée soit développée de manière responsable, en tenant compte des préoccupations liées à la sécurité et à l’éthique. Les prochaines étapes doivent mettre en place des réglementations adéquates pour assurer la sûreté et la transparence de ces technologies prometteuses.

Source : time.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications