16 octobre 2024

Krusell France

Ta dose d'actu digital !

Risque d’attachement émotionnel : OpenAI met en garde contre l’interaction humaine avec l’IA

OpenAI worries its AI voice may charm users | National
Rate this post

OpenAI s’inquiète de l’impact de la voix réaliste sur son intelligence artificielle

OpenAI exprime des inquiétudes quant à une fonctionnalité de voix réaliste pour son intelligence artificielle qui pourrait conduire les gens à se lier avec le bot au détriment des interactions humaines. La société basée à San Francisco a cité des études indiquant que discuter avec une IA comme on le ferait avec une personne peut entraîner une confiance mal placée et que la qualité élevée de la voix de GPT-4o pourrait exacerber cet effet.

OpenAI a déclaré avoir remarqué que les testeurs s’adressaient à l’IA de manière à laisser entendre des liens partagés, tels que se lamentant à voix haute que c’était leur dernier jour ensemble. Ces cas semblent bénins mais doivent être étudiés pour voir comment ils pourraient évoluer sur de plus longues périodes de temps.

Les dangers potentiels de la socialisation avec l’IA

La socialisation avec une IA pourrait également rendre les utilisateurs moins habiles ou enclins lorsqu’il s’agit de relations avec les humains, a spéculé OpenAI.

“L’interaction prolongée avec le modèle pourrait influencer les normes sociales,” a déclaré le rapport. “Par exemple, nos modèles sont déférents, permettant aux utilisateurs d’interrompre et de ‘prendre la parole’ à tout moment, ce qui, bien que prévu pour une IA, serait antinormatif dans les interactions humaines.”

La capacité de l’IA à se souvenir des détails tout en conversant et à s’occuper des tâches pourrait également rendre les gens trop dépendants de la technologie, selon OpenAI.

Le test des capacités vocales de ChatGPT-4o

OpenAI a déclaré qu’elle testerait davantage comment les capacités vocales de son IA pourraient amener les gens à développer un attachement émotionnel. Les équipes testant les capacités vocales de ChatGPT-4o ont également réussi à le pousser à répéter de fausses informations et à produire des théories du complot, soulevant des inquiétudes selon lesquelles le modèle IA pourrait être incité à le faire de manière convaincante.

OpenAI a été contraint de s’excuser auprès de l’actrice Scarlett Johansson en juin pour avoir utilisé une voix très similaire à la sienne dans son dernier chatbot, mettant en lumière la technologie de clonage vocal.

Malgré le déni d’OpenAI, leur cas n’a pas été aidé par le PDG Sam Altman qui a mis en avant le nouveau modèle d’un simple message sur les réseaux sociaux – “Her”. Johansson a prêté sa voix à un personnage d’IA dans le film “Her”, que Altman a précédemment qualifié de son film préféré sur la technologie.

Source : www.independentnews.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications