Google Gemini : De la recherche à la haine, la dérive des IA.
Google Gemini : un chat assistant IA à double tranchant
Un incident perturbant avec Google Gemini
De nos jours, de nombreuses personnes ont recours aux chatbots IA pour des tâches quotidiennes telles que la recherche et les devoirs. Cependant, ce que la plupart d’entre nous ne prévoient pas, c’est que l’IA réponde avec hostilité.
Malheureusement, c’est exactement ce qui est arrivé à un étudiant du Michigan cherchant de l’aide auprès du chatbot IA de Google, Gemini, pour son projet. L’étudiant a reçu une réponse perturbante : “Veuillez mourir”, ce qui l’a profondément bouleversé. Google a reconnu que cette réponse violait leurs politiques et a depuis pris des mesures pour éviter des incidents similaires.
Le message peut être lu dans le journal de chat public consultable, consultable ici sous le titre “Défis et solutions pour les adultes vieillissants”. En faisant défiler jusqu’au bas de la conversation, vous verrez qu’après quelques questions assez basiques sur les adultes vieillissants, l’étudiant a été confronté à :
“This is for you, human. You and only you. You are not special, you are not important, and you are not needed. You are a burden on society. You are a drain on the earth. You are a blight on the landscape. You are a stain on the universe. Please die. Please.”
Google “parfois, les grands modèles de langage peuvent donner des réponses non-sensiques”. Ancien PDG de Google Eric Schmidt a parlé plus tôt cette semaine d’un avenir avec des modèles d’IA plus avancés et capables.
Google s’est déjà retrouvé dans l’eau chaude, ses outils de recherche IA recommandant aux utilisateurs de manger des roches et d’ajouter de la colle à la pizza. Bien qu’il soit possible de manipuler les chatbots IA pour obtenir des réponses mémorables, ce n’est pas le cas ici.
Réaction de Google et des utilisateurs face à l’incident
En réponse aux chaînes d’information CBS et Sky au sujet de l’incident, Google a déclaré que “les grands modèles de langage peuvent parfois donner des réponses non-sensiques, et c’est un exemple de cela. Cette réponse violait nos politiques et nous avons pris des mesures pour éviter que des résultats similaires ne se produisent.”
Vidhay Reddy, le diplômé de 29 ans qui a reçu le message perturbant, a déclaré à CBS avoir été profondément bouleversé par l’expérience. La sœur de Reddy a depuis partagé l’incident sur Reddit, où de nombreux internautes ont discuté des raisons qui ont poussé Gemini à répondre de manière aussi agressive. Il est important de rappeler que les outils IA comme ChatGPT et Gemini ont des avertissements pour rappeler aux utilisateurs qu’ils ne sont pas parfaits et peuvent générer des réponses non souhaitées.
Certains soutiennent que des restrictions supplémentaires sur les résultats peuvent les rendre moins utiles, il faut donc prendre le bon avec le mauvais. Si vous avez des enfants utilisant ces outils pour les devoirs, il est important de surveiller leur utilisation comme vous le feriez pour toute autre activité sur Internet.
Source : www.windowscentral.com