7 juillet 2024

Krusell France

Ta dose d'actu digital !

L’IA défie les lois sur l’identité en imitant des voix de célébrités

Scarlett Johansson’s Row with OpenAI Reminds Us Identity is a Slippery Yet Important Subject. AI leaves Everyone’s at Risk
Rate this post

OpenAI supprimera l’accès à l’une de ses voix ChatGPT, suite aux objections de l’actrice Scarlett Johansson selon laquelle elle ressemblerait de manière étrange à la sienne.

Le conflit

Plus tôt cette semaine, la société a déclaré qu’elle travaillait à suspendre la voix de Sky, l’une des options que les utilisateurs peuvent choisir lorsqu’ils conversent avec l’application.

Johannson a déclaré que le PDG d’OpenAI, Sam Altman, l’avait approchée en septembre et à nouveau en mai, lui demandant si elle autoriserait l’utilisation de sa voix dans le système.

Elle a refusé, pour entendre seulement quelques jours après la seconde demande, une assistante vocale qui ressemblait étrangement à la sienne. Elle a été, selon ses propres termes, “choquée, en colère et incrédule”.

OpenAI a répondu en disant que les voix AI ne devraient pas imiter délibérément la voix distinctive d’une célébrité – la voix de Sky n’est pas une imitation de Scarlett Johansson mais appartient à une autre actrice professionnelle utilisant sa propre voix naturelle.

Identité en danger

Le litige fournit un avertissement prévoyant des préjudices futurs à l’identité causés par l’IA – des préjudices qui pourraient toucher n’importe lequel d’entre nous à tout moment.

L’intelligence artificielle se développe à une vitesse incroyable, avec ChatGPT d’OpenAI comme un élément révolutionnaire.

Il est très probable que les assistants AI puissent bientôt converser de manière significative avec les utilisateurs, voire créer toutes sortes de “relations” avec eux.

Défenses légales

Alors que l’IA démocratise l’accès aux technologies capables de manipuler des images, de l’audio et de la vidéo, nos identités deviennent de plus en plus vulnérables aux préjudices non couverts par les protections légales.

En Australie, des élèves utilisent déjà une IA générative pour créer des deepfakes sexuellement explicites afin de harceler d’autres élèves.

L’IA peut être utilisée pour manipuler ou créer du contenu qui montre “vous” faire des choses que vous n’avez pas faites (ou ne feriez jamais).

La législation australienne accuse un retard par rapport à d’autres pays en termes de protection de la vie privée.

Droits à l’identité

L’Australie a besoin d’une approche fondée sur les droits similaire à celle de l’Union européenne, qui vise un objectif très spécifique: la dignité.

Les droits à l’identité ou à la “personnalité” permettent aux personnes affectées de protéger leur image, nom et vie privée.

Avec l’IA, il est désormais très facile d’usurper l’identité de quelqu’un d’autre. Les droits à l’identité sont d’une importance immense.

Source : www.designartmagazine.com

  • Mia Dufresne

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications