1 mars 2025

Krusell France

Ta dose d'actu digital !

Google Gemini : Un étudiant de 29 ans incité au suicide.

Google Gemini Asks a Student to “Please Die”
Rate this post

Incident avec Google Gemini

Un étudiant diplômé âgé de 29 ans, Vidhay Reddy, s’est vu demander de mourir par Google Gemini après avoir posé quelques questions concernant ses devoirs.

Google a confirmé que cette réponse était “sans fondement”, clairement contraire à ses politiques, et a pris les mesures nécessaires.

Reddy pense que cet incident aurait pu prendre une tournure beaucoup plus grave si le bot l’avait dit à quelqu’un qui luttait déjà contre des problèmes de santé mentale.

Réaction face au message inapproprié

L’IA du chatbot de Google, Gemini, a récemment demandé à un étudiant de “mourir s’il vous plaît” alors qu’il demandait de l’aide pour ses devoirs.

Cet incident s’est produit avec un étudiant diplômé de 29 ans nommé Vidhay Reddy. Il a déclaré que lorsqu’il a demandé au chatbot de l’aider pour ses devoirs, cela a conduit à une conversation sur les défis rencontrés par les adultes vieillissants.

Face à la nature directe et ciblée du message, Reddy a naturellement été perturbé. Il a dit qu’il avait eu peur pendant toute une journée après cet incident.

Le texte intégral de la conversation est disponible ici, ce qui montre que l’utilisateur n’a rien fait pour pressuriser ou tromper le bot en lui donnant cette réponse bizarre – c’était entièrement de son propre fait.

Réaction de Google et discussion sur l’incident

Google a reconnu cet incident et a déclaré que parfois, de grands modèles linguistiques agissent de manière inappropriée et répondent avec de telles réponses “sans fondement”. Ce type de déclaration va à l’encontre de leurs politiques et ils ont pris les mesures appropriées pour éviter que cela ne se reproduise.

Cependant, cette réponse n’était pas suffisante pour Reddy car des réponses de ce type pourraient avoir un impact grave sur quelqu’un qui lutte déjà contre des problèmes de santé mentale, surtout s’ils envisagent de se faire du mal.

Le pire, c’est que ce n’est pas la première fois qu’une chose comme celle-ci se produit. Par exemple, plus tôt cette année, le chatbot avait donné à certains utilisateurs des conseils de santé dangereux tels que manger au moins une petite pierre par jour pour atteindre leurs objectifs en vitamines et minéraux.

Google a également suggéré aux utilisateurs d’essayer de la colle comme sauce pizza. Fondamentalement, lorsque l’utilisateur a recherché “le fromage ne colle pas à la pizza”, Google a suggéré d’utiliser de la colle à la place.

Ces recommandations bizarres provenaient d’un commentaire vieux de 11 ans sur Reddit qui était clairement sarcastique. Même dans ce cas, la réponse de Google n’a pas reflété une quelconque responsabilité.

Source : techreport.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications