OpenAI retarde le lancement des nouvelles fonctionnalités vocales de ChatGPT
Nouvelles fonctionnalités de ChatGPT repoussées pour des tests de sécurité supplémentaires
OpenAI repousse le lancement de nouvelles fonctionnalités vocales et de lecture d’émotions pour son chatbot ChatGPT
OpenAI a annoncé qu’il repoussait le lancement de ses nouvelles fonctionnalités vocales et de lecture d’émotions pour le chatbot ChatGPT, citant la nécessité de tests de sécurité supplémentaires. Initialement prévue pour être disponible pour certains abonnés payants fin juin, la sortie a été reportée d’un mois pour le moment et devrait être déployée pour tous les utilisateurs payants à l’automne. La société a souligné que le timing exact dépendrait du respect de leurs “normes élevées en matière de sécurité et de fiabilité”.
La annonce fait suite à une démonstration le mois dernier qui a suscité beaucoup d’enthousiasme parmi les utilisateurs de ChatGPT. Cependant, elle a également suscité la controverse, notamment une possible poursuite en justice de l’actrice Scarlett Johansson. Johansson a allégué qu’OpenAI avait utilisé sa voix sans permission pour l’une de ses personas IA.
Le retard met en lumière les défis auxquels les entreprises technologiques sont confrontées alors qu’elles se précipitent pour développer et déployer des technologies IA avancées. Par exemple, Google a récemment réduit la fréquence des réponses générées par l’IA en tête des résultats de recherche en raison d’erreurs, telles que des recommandations bizarres comme mettre de la colle sur une pizza.
De plus, en février, Google a retiré un générateur d’images IA qui avait été critiqué pour produire des images controversées. De même, Microsoft a apporté des modifications à son propre chatbot IA l’année dernière après qu’il a parfois donné des réponses étranges et agressives.
OpenAI affirme que du temps supplémentaire est nécessaire pour améliorer les nouvelles fonctionnalités vocales, en veillant à ce qu’elles puissent reconnaître et bloquer efficacement les contenus inappropriés. Cela est crucial car de nombreux outils IA ont été critiqués pour générer de fausses informations et afficher des contenus racistes, sexistes ou biaisés.
Source : www.firstpost.com