Google dévoile Sec-Gemini v.1 : une IA pour la cybersécurité en temps réel

Google lance Sec-Gemini v1, un modèle d’IA pour la cybersécurité en temps réel
Google a dévoilé Sec-Gemini v1, un modèle d’intelligence artificielle expérimental visant à aider les professionnels de la cybersécurité à détecter et analyser les menaces en temps réel. Annoncé le 4 avril 2025, ce modèle marque la première expansion formelle de la marque d’IA Gemini de l’entreprise dans le domaine de la cybersécurité. Contrairement aux outils de sécurité classiques qui reposent uniquement sur la reconnaissance de modèles ou l’automatisation, Sec-Gemini met l’accent sur le raisonnement et l’analyse des menaces en temps réel. Selon Google, il est conçu pour soutenir des tâches telles que l’ingénierie inverse de logiciels malveillants, la rédaction de règles de détection et la production de rapports d’analyse d’incidents.
Entraîné sur des données provenant de Google Threat Intelligence (GTI), Open Source Vulnerabilities (OSV) et des rapports de menaces de Mandiant, Sec-Gemini peut fournir une analyse structurée sur un large éventail de tâches de cybersécurité. Le modèle peut analyser des binaires, décompiler du code, classifier le comportement des attaquants et aider à la logique de détection. Sec-Gemini v1 a été spécialement conçu pour aider les professionnels de la cybersécurité à détecter, analyser et répondre aux menaces en temps réel. Il aide les analystes à identifier les logiciels malveillants, à inverser le code malveillant et à rédiger des règles de détection.
Actuellement mis à disposition de certains chercheurs, ONG et équipes de cybersécurité pour l’expérimentation et les retours, Sec-Gemini a également donné des résultats impressionnants sur des benchmarks de l’industrie. Il a surpassé des modèles comparables d’au moins 11% sur le test d’intelligence de menace CTI-MCQ et de 10,5% sur le benchmark de cartographie de la cause racine CTI.
Google vs. Microsoft dans la sécurité de l’IA
L’initiative de Google intervient à un moment où les grandes entreprises technologiques se bousculent pour intégrer l’IA plus profondément dans leurs écosystèmes de sécurité. Le 24 mars, Microsoft a révélé qu’il étendait sa plateforme Security Copilot avec six nouveaux agents d’IA, chacun conçu pour gérer des tâches spécifiques comme le triage du phishing, la détection des menaces internes et la remédiation des vulnérabilités. Microsoft a également intégré cinq agents supplémentaires développés par des partenaires comme OneTrust et Tanium. Ces agents sont intégrés dans des produits d’entreprise comme Microsoft Defender et Intune.
Contrairement à l’approche axée sur l’automatisation de Microsoft, Sec-Gemini de Google met l’accent sur des capacités analytiques approfondies. En se concentrant sur le raisonnement, le modèle vise à soutenir les experts en cybersécurité dans la découverte de la cause des attaques, et non pas seulement dans l’alerte face à des comportements suspects.
La menace croissante de la cybercriminalité pilotée par l’IA
Sec-Gemini arrive alors que les inquiétudes montent concernant les cyberattaques améliorées par l’IA. En 2023, la fraude facilitée par les deepfakes représentait 7% de l’activité mondiale d’escroquerie, avec une croissance de dix fois par rapport à l’année précédente. En réponse à cette tendance, OpenAI a récemment investi 43 millions de dollars dans Adaptive Security, une startup axée sur la défense contre les deepfakes et les escroqueries d’ingénierie sociale.
La réponse de l’industrie dans son ensemble s’intensifie. Microsoft, par exemple, a intenté un procès à un groupe de hackers en janvier pour avoir utilisé des identifiants volés Azure OpenAI pour générer du contenu malveillant, y compris de fausses vidéos utilisées dans des tentatives de phishing.
Source : winbuzzer.com