OpenAI démantèle une opération iranienne manipulant l’opinion publique.
Avec l’avènement de l’intelligence artificielle, OpenAI a révélé et démantelé une opération d’influence iranienne secrète exploitant ChatGPT, marquant ainsi la deuxième instance de divulgation de l’utilisation adversaire de ses modèles d’IA depuis mai.
Ce qui s’est passé
La manipulation de l’opinion publique pendant les élections de 2024 était l’objectif de l’opération, nommée Storm-2035, qui produisait du contenu à l’aide de comptes ChatGPT. Les comptes impliqués ont été interdits d’utiliser les services d’OpenAI.
Les contenus produits comprenaient des articles de longue forme et des commentaires courts sur les réseaux sociaux, abordant divers sujets tels que la politique américaine, les événements mondiaux et l’élection présidentielle américaine. Ce contenu était partagé via les réseaux sociaux et des sites web se faisant passer pour des organes de presse.
Malgré les efforts déployés, l’opération n’a pas réussi à susciter un engagement significatif du public. La plupart des publications sur les réseaux sociaux ont reçu peu d’interaction, et les articles web n’ont pas été largement partagés, a déclaré la start-up en intelligence artificielle. L’enquête d’OpenAI a été facilitée par des informations de Microsoft.
« L’opération a généré du contenu sur plusieurs sujets : principalement, le conflit à Gaza, la présence d’Israël aux Jeux olympiques et l’élection présidentielle américaine », a noté l’entreprise.
OpenAI a partagé des renseignements sur les menaces avec des acteurs gouvernementaux, de campagne et de l’industrie pour soutenir la communauté dans la lutte contre de telles activités.
Pourquoi c’est important
Cet incident s’inscrit dans une tendance plus large d’utilisation d’outils d’IA pour des campagnes de désinformation. En mai, OpenAI a révélé que ses modèles d’IA étaient exploités par des réseaux associés à la Russie, la Chine, l’Iran et Israël pour propager la désinformation à l’échelle mondiale.
La société a révélé que cinq opérations d’influence secrètes avaient utilisé ses modèles d’IA pour générer des textes et des images trompeurs.
En juin, OpenAI a annoncé son intention de restreindre l’accès à ses outils en Chine, dans un contexte de tensions croissantes et de pressions du gouvernement américain pour limiter l’accès de la Chine à la technologie d’IA avancée. Malgré ces restrictions, des développeurs en Chine ont continué d’utiliser les outils d’OpenAI via des réseaux privés virtuels et d’autres moyens.
Les préoccupations concernant la sécurité des élections ont été exacerbées suite à une cyberattaque contre la campagne présidentielle de Donald Trump. Des anciens responsables de la Maison Blanche ont mis en garde contre de potentielles cyberattaques futures, suggérant que quelqu’un pourrait réutiliser le même schéma qu’en 2016.
Jeudi, Google Inc. a confirmé que des pirates informatiques iraniens liés à la Garde révolutionnaire avaient ciblé les comptes de messagerie personnels de personnes associées aux campagnes présidentielles américaines du Président Joe Biden et de l’ancien Président Trump.
Ces attaques, qui ont commencé en mai, visaient des fonctionnaires actuels et anciens, ainsi que des affiliés de campagne.
Source : www.benzinga.com