22 novembre 2024

Krusell France

Ta dose d'actu digital !

Les lanceurs d’alerte d’OpenAI dénoncent des pratiques d’obstruction dans le domaine de l’IA

Whistleblowers Accuse OpenAI Of Hindering Staff From Reporting AI Risks
Rate this post

Un groupe de lanceurs d’alerte chez OpenAI a déposé une plainte auprès de la Securities and Exchange Commission (SEC), affirmant que l’entreprise empêchait ses employés de signaler les risques potentiels associés à sa technologie d’intelligence artificielle (IA) aux régulateurs.

La situation chez OpenAI

Les lanceurs d’alerte, dans une lettre de sept pages obtenue par The Washington Post, ont affirmé qu’OpenAI imposait des contrats restrictifs d’emploi, de rupture et de non-divulgation à son personnel. Ces accords pourraient potentiellement pénaliser les employés qui exprimeraient des préoccupations concernant l’entreprise auprès des régulateurs fédéraux.

OpenAI, le créateur de l’outil d’IA très utilisé ChatGPT, aurait apparemment demandé à ses employés de signer des accords incluant la renonciation de leurs droits fédéraux à une rémunération pour lanceurs d’alerte. Les lanceurs d’alerte ont souligné dans leur lettre le besoin urgent pour les employés travaillant sur la technologie de l’IA de pouvoir soulever des plaintes ou des préoccupations auprès des autorités de réglementation fédérales ou des forces de l’ordre.

Les réactions d’OpenAI et des whistleblowers

Une porte-parole d’OpenAI, Hannah Wong, a déclaré à The Washington Post que la politique de lanceurs d’alerte de l’entreprise protège les droits des employés à faire des divulgations. “De plus, nous pensons qu’un débat rigoureux sur cette technologie est essentiel et avons déjà apporté des changements importants à notre processus de départ pour supprimer les termes de non-dénigrement”, a déclaré Wong.

Un lanceur d’alerte a exprimé des inquiétudes au Washington Post, déclarant que les entreprises d’IA ne peuvent pas développer une technologie “sûre et dans l’intérêt public si elles se protègent du contrôle et de la dissidence”.

L’importance de la transparence et de la responsabilité

Cet incident souligne l’importance de la transparence et de la responsabilité dans le domaine en évolution rapide de la technologie de l’IA. Il met en lumière le besoin de politiques et de protections solides pour les lanceurs d’alerte, notamment dans les entreprises développant des technologies potentiellement impactantes.

Les allégations portées contre OpenAI, si elles sont prouvées, pourraient avoir des implications significatives pour l’entreprise et l’industrie de l’IA dans son ensemble. Cela met également en lumière les préoccupations croissantes concernant les violations des lois antitrust dans l’industrie technologique, comme en témoigne le récent retrait de Microsoft du conseil d’OpenAI.

Ce contenu a été partiellement produit avec l’aide d’outils d’IA et a été examiné et publié par les rédacteurs de Benzinga.

Source : www.benzinga.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications