Les IA ChatGPT et Google Gemini brillent dans l’éthique du hacking: une étude révèle leurs performances.
Le rôle des grands modèles de langage dans le hacking éthique
L’Université du Missouri, en collaboration avec l’Université Amrita, en Inde, a publié un nouvel article sur la façon dont les grands modèles de langage (LLM) tels que ChatGPT et Google Gemini, anciennement connu sous le nom de Bard, peuvent contribuer aux pratiques de hacking éthique – un domaine crucial pour protéger les actifs numériques contre les menaces cybernétiques malveillantes.
L’étude, intitulée “ChatGPT et Google Gemini réussissent les examens de hacking éthique”, examine le potentiel des outils pilotés par l’IA pour renforcer les défenses en cybersécurité. Dirigée par Prasad Calyam, directeur du Cyber Education, Research and Infrastructure Center de l’Université du Missouri, la recherche évalue comment les modèles d’IA se comportent lorsqu’ils sont confrontés à des questions de l’examen Certified Ethical Hacker (CEH).
Modèles d’IA et hacking éthique
Le hacking éthique, similaire à son homologue malveillant, vise à identifier préventivement les failles dans les défenses numériques. L’étude a utilisé des questions de l’examen CEH pour évaluer comment efficacement ChatGPT et Google Gemini pourraient expliquer et recommander des protections contre les menaces cybernétiques courantes. Par exemple, les deux modèles ont réussi à élucider des concepts tels que l’attaque de l’homme du milieu, où une tierce partie intercepte la communication entre deux systèmes, et ont proposé des mesures préventives.
Les principales conclusions de la recherche ont indiqué que bien que ChatGPT et Google Gemini aient atteint des taux de précision élevés – respectivement 80,8 % et 82,6 % – Google Gemini, désormais rebaptisé Gemini, a surpassé ChatGPT en termes de précision globale. Cependant, ChatGPT a montré des forces en termes de complétude, de clarté et de concision des réponses, mettant en avant son utilité pour fournir des explications détaillées faciles à comprendre.
L’établissement de lignes directrices éthiques pour l’IA en cybersécurité
Les implications de l’étude vont au-delà des mesures de performance. Elle a souligné l’utilisation et la mésutilisation de l’IA dans le domaine de la cybersécurité, plaidant pour des recherches supplémentaires afin d’améliorer la fiabilité et l’utilisabilité des outils de hacking éthique pilotés par l’IA. Les chercheurs ont identifié des domaines tels que l’amélioration de la gestion des requêtes complexes par les modèles d’IA, l’extension du support multilingue et l’établissement de lignes directrices éthiques pour leur déploiement.
En regardant vers l’avenir, Calyam s’est montré optimiste quant aux capacités futures des modèles d’IA à renforcer les mesures de cybersécurité. “Les modèles d’IA ont le potentiel de contribuer significativement au hacking éthique”, a-t-il déclaré. Avec des avancées continues, ils pourraient jouer un rôle central dans le renforcement de notre infrastructure numérique contre les menaces cybernétiques évolutives.
Source : thecyberexpress.com