Cyberattaque chez OpenAI en 2023 : le FBI jamais informé, rapporte le New York Times
Un piratage du système de messagerie interne d’OpenAI, créateur de ChatGPT, a été signalé en 2023 – mais la société n’a jamais informé le FBI, rapporte le New York Times jeudi. Pendant le piratage, les discussions entre les employés étaient accessibles aux intrus, mais pas l’actif le plus précieux de la société, le code qu’elle utilise pour construire l’intelligence artificielle. Ce piratage a soulevé des inquiétudes selon lesquelles la société d’IA de Sam Altman pourrait être vulnérable à des intrusions de certains des adversaires étrangers des États-Unis. Selon des sources proches de l’incident qui ont parlé au New York Times, le pirate informatique a pu accéder à un forum de l’entreprise où les employés discutaient du développement de l’IA en avril 2023. Le piratage n’a jamais été signalé aux autorités. Un employé, Leopold Aschenbrenner, a soulevé des préoccupations auprès du conseil de la société, avertissant que des adversaires tels que la Chine pourraient être en mesure d’accéder à ses systèmes. Aschenbrenner a ensuite été licencié d’OpenAI, une décision que la porte-parole d’OpenAI, Liz Bourgeois, a déclaré au New York Times n’était pas liée à son mémo. OpenAI et d’autres sociétés de développement de l’intelligence artificielle telles qu’Anthropic ont commandé des études sur les risques potentiels pour la sécurité nationale que posent l’accès à leurs systèmes, selon le New York Times.
Piratage du système interne d’OpenAI
En 2023, le système de messagerie interne d’OpenAI, créateur de ChatGPT, a été piraté, exposant les discussions entre les employés aux intrus, suscitant des inquiétudes quant à la vulnérabilité de la société à des attaques de cyber-adversaires.
Risques potentiels pour la sécurité nationale
Le non-signalement du piratage aux autorités a soulevé des préoccupations quant à la capacité des adversaires étrangers d’accéder aux systèmes d’OpenAI, mettant en lumière les risques potentiels pour la sécurité nationale.
Études commandées par OpenAI et Anthropic
OpenAI et d’autres entreprises de développement d’IA, telles qu’Anthropic, ont pris des mesures pour évaluer les risques que représentent l’accès à leurs systèmes en commandant des études sur la sécurité nationale.
Source : www.thedailybeast.com