16 octobre 2024

Krusell France

Ta dose d'actu digital !

OpenAI contrecarre des attaques de phishing de SweetSpecter liées à la Chine

OpenAI claims to have foiled China-backed election interference, phishing attacks – Firstpost
Rate this post

L’intelligence artificielle et les risques de cybersécurité

Les tentatives de phishing bloquées par les systèmes de sécurité

En 2024, OpenAI a déjà traité plus de 20 cas où des tentatives à grande échelle ont été faites pour utiliser ses modèles d’IA afin de semer la désinformation électorale. Cependant, les mesures de sécurité d’OpenAI se sont révélées efficaces pour bloquer ces attaques.

OpenAI a révélé qu’elle a réussi à contrecarrer une tentative de phishing, alléguée d’être menée par un groupe ayant des liens avec la Chine, suscitant de nouvelles inquiétudes concernant les menaces cybernétiques de Pékin visant les principales entreprises américaines d’intelligence artificielle (IA).

Le géant de l’IA a partagé qu’un groupe basé en Chine, connu sous le nom de SweetSpecter, a tenté de cibler son personnel plus tôt cette année, se faisant passer pour un utilisateur de son chatbot, ChatGPT, pour lancer l’attaque.

SweetSpecter aurait envoyé des e-mails aux employés d’OpenAI, déguisés en messages de support client, contenant des pièces jointes contenant des logiciels malveillants. Si elles étaient ouvertes, ces pièces jointes auraient permis aux attaquants de prendre des captures d’écran et d’extraire des données sensibles.

Cependant, les mesures de sécurité d’OpenAI se sont révélées efficaces pour bloquer l’attaque. La société a confirmé que son équipe de sécurité a rapidement contacté les employés censés être ciblés et a découvert que les e-mails avaient été stoppés avant de pouvoir atterrir dans les boîtes de réception de l’entreprise.

Les risques croissants de cybersécurité pour OpenAI

Cet incident a ravivé les inquiétudes concernant la vulnérabilité des principales entreprises d’IA, surtout alors que les États-Unis et la Chine restent engagés dans une rivalité tendue sur le développement et la domination de l’IA.

Plus tôt dans l’année, un autre cas notable a vu un ancien ingénieur de Google accusé d’avoir volé des secrets commerciaux d’IA pour une entreprise chinoise.

Malgré les accusations répétées des États-Unis, la Chine a systématiquement nié toute implication dans les cyberattaques, accusant des forces extérieures de mener des campagnes de diffamation contre le pays.

Les opérations d’influence plus larges révélées par OpenAI

OpenAI a récemment révélé quelques détails inquiétants dans son dernier rapport sur les menaces cybernétiques, mettant en lumière l’abus de ses modèles d’IA dans les tentatives de phishing et de cybercriminalité.

La société a été occupée à répondre à diverses menaces mondiales, notamment en fermant des comptes liés à des groupes en Chine et en Iran. Ces groupes utilisaient l’IA pour de l’aide à la programmation et pour la recherche, entre autres.

Le rapport souligne les défis croissants en matière de cybersécurité auxquels les entreprises d’IA sont confrontées dans l’environnement technologique rapide d’aujourd’hui. Avec la course mondiale à la domination de l’IA qui s’intensifie, les incidents d’abus deviennent de plus en plus fréquents.

En 2024, OpenAI a déjà traité plus de 20 cas où des tentatives à grande échelle ont été faites pour utiliser ses modèles d’IA afin de semer la désinformation électorale. Des incidents notables ont inclus la fermeture de comptes produisant du contenu factice lié aux élections américaines et la suppression de comptes au Rwanda impliqués dans des activités liées aux élections sur les médias sociaux. OpenAI, soutenu par Microsoft, est pleinement conscient des risques et renforce ses efforts pour contrer de tels abus.

Source : www.firstpost.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications