Les lanceurs d’alerte d’OpenAI dénoncent des pratiques d’obstruction dans le domaine de l’IA
Un groupe de lanceurs d’alerte chez OpenAI a déposé une plainte auprès de la Securities and Exchange Commission (SEC), affirmant que l’entreprise empêchait ses employés de signaler les risques potentiels associés à sa technologie d’intelligence artificielle (IA) aux régulateurs.
La situation chez OpenAI
Les lanceurs d’alerte, dans une lettre de sept pages obtenue par The Washington Post, ont affirmé qu’OpenAI imposait des contrats restrictifs d’emploi, de rupture et de non-divulgation à son personnel. Ces accords pourraient potentiellement pénaliser les employés qui exprimeraient des préoccupations concernant l’entreprise auprès des régulateurs fédéraux.
OpenAI, le créateur de l’outil d’IA très utilisé ChatGPT, aurait apparemment demandé à ses employés de signer des accords incluant la renonciation de leurs droits fédéraux à une rémunération pour lanceurs d’alerte. Les lanceurs d’alerte ont souligné dans leur lettre le besoin urgent pour les employés travaillant sur la technologie de l’IA de pouvoir soulever des plaintes ou des préoccupations auprès des autorités de réglementation fédérales ou des forces de l’ordre.
Les réactions d’OpenAI et des whistleblowers
Une porte-parole d’OpenAI, Hannah Wong, a déclaré à The Washington Post que la politique de lanceurs d’alerte de l’entreprise protège les droits des employés à faire des divulgations. “De plus, nous pensons qu’un débat rigoureux sur cette technologie est essentiel et avons déjà apporté des changements importants à notre processus de départ pour supprimer les termes de non-dénigrement”, a déclaré Wong.
Un lanceur d’alerte a exprimé des inquiétudes au Washington Post, déclarant que les entreprises d’IA ne peuvent pas développer une technologie “sûre et dans l’intérêt public si elles se protègent du contrôle et de la dissidence”.
L’importance de la transparence et de la responsabilité
Cet incident souligne l’importance de la transparence et de la responsabilité dans le domaine en évolution rapide de la technologie de l’IA. Il met en lumière le besoin de politiques et de protections solides pour les lanceurs d’alerte, notamment dans les entreprises développant des technologies potentiellement impactantes.
Les allégations portées contre OpenAI, si elles sont prouvées, pourraient avoir des implications significatives pour l’entreprise et l’industrie de l’IA dans son ensemble. Cela met également en lumière les préoccupations croissantes concernant les violations des lois antitrust dans l’industrie technologique, comme en témoigne le récent retrait de Microsoft du conseil d’OpenAI.
Ce contenu a été partiellement produit avec l’aide d’outils d’IA et a été examiné et publié par les rédacteurs de Benzinga.
Source : www.benzinga.com