OpenAI révèle des opérations de désinformation avec IA : Russie, Chine, Israël et Iran.
OpenAI a publié jeudi son tout premier rapport sur la façon dont ses outils d’intelligence artificielle sont utilisés pour des opérations d’influence secrète, révélant que la société avait perturbé des campagnes de désinformation provenant de la Russie, de la Chine, d’Israël et de l’Iran. Les acteurs malveillants ont utilisé les modèles d’IA générative de l’entreprise pour créer et diffuser du contenu de propagande sur les plateformes de médias sociaux, et pour traduire leur contenu dans différentes langues. Aucune des campagnes n’a eu de succès ou n’a atteint un large public, selon le rapport.
Détails du rapport OpenAI sur les opérations d’influence
Avec l’essor de l’IA générative, les chercheurs et les législateurs se sont largement inquiétés de son potentiel à augmenter la quantité et la qualité de la désinformation en ligne. Des entreprises d’intelligence artificielle telles qu’OpenAI, qui produit ChatGPT, ont tenté avec des résultats mitigés d’apaiser ces préoccupations et de placer des garde-fous sur leur technologie. Le rapport de 39 pages d’OpenAI est l’un des comptes rendus les plus détaillés d’une entreprise d’intelligence artificielle sur l’utilisation de son logiciel à des fins de propagande.
OpenAI a déclaré que ses chercheurs ont identifié et banni des comptes associés à cinq opérations d’influence secrètes au cours des trois derniers mois, qui provenaient d’un mélange d’acteurs étatiques et privés. En Russie, deux opérations ont créé et diffusé du contenu critiquant les États-Unis, l’Ukraine et plusieurs nations baltes. Une des opérations utilisait un modèle OpenAI pour déboguer du code et créer un bot qui publiait sur Telegram. L’opération d’influence de la Chine générait du texte en anglais, chinois, japonais et coréen, que les opérateurs publiaient ensuite sur Twitter et Medium.
Les acteurs iraniens ont généré des articles entiers attaquant les États-Unis et Israël, qu’ils ont traduits en anglais et en français. Une entreprise politique israélienne appelée Stoic gérait un réseau de faux comptes de médias sociaux qui créaient divers contenus, dont des publications accusant les étudiants américains de manifester contre la guerre d’Israël à Gaza d’être antisémites.
Plusieurs des propagateurs de désinformation que OpenAI a bannis de sa plateforme étaient déjà connus des chercheurs et des autorités. Le Trésor américain a sanctionné deux hommes russes en mars, qui étaient présumés derrière l’une des campagnes détectées par OpenAI, tandis que Meta a également banni Stoic de sa plateforme cette année pour avoir enfreint ses politiques.
Le rapport met également en lumière comment l’IA générative est incorporée dans les campagnes de désinformation comme moyen d’améliorer certains aspects de la génération de contenu, comme la création de messages dans des langues étrangères plus convaincants, mais qu’il ne s’agit pas de l’unique outil pour la propagande.
“Toutes ces opérations ont utilisé l’IA dans une certaine mesure, mais aucune ne l’a utilisée exclusivement”, indique le rapport. “Au lieu de cela, le matériel généré par l’IA était juste l’un des nombreux types de contenu qu’ils publiaient, aux côtés de formats plus traditionnels, tels que des textes rédigés manuellement, ou des mèmes copiés à travers internet.”
Alors que aucune des campagnes n’a eu un impact notable, leur utilisation de la technologie montre comment les acteurs malveillants constatent que l’IA générative leur permet de multiplier la production de propagande. Rédiger, traduire et publier du contenu peut désormais être fait de manière plus efficace grâce à l’utilisation d’outils d’IA, abaissant la barrière pour la création de campagnes de désinformation.
Au cours de la dernière année, des acteurs malveillants ont utilisé l’IA générative dans des pays du monde entier pour tenter d’influencer la politique et l’opinion publique. Des audios deepfake, des images générées par IA et des campagnes basées sur du texte ont tous été utilisés pour perturber les campagnes électorales, ce qui a conduit à une pression accrue sur des entreprises comme OpenAI pour restreindre l’utilisation de leurs outils. OpenAI a déclaré qu’il prévoyait de publier régulièrement des rapports similaires sur les opérations d’influence secrètes, ainsi que de supprimer les comptes qui enfreignent ses politiques.
Source : www.theguardian.com