Le cauchemar de la transcription AI révélé: textes inventés incluent commentaires racistes et suggestions médicales imaginaires
Introduction : L’intelligence artificielle, un outil de transcription défaillant
OpenAI, géant de la technologie, a vanté son outil de transcription alimenté par l’IA, Whisper, comme offrant une précision et une robustesse proches du “niveau humain”. Cependant, les experts ont identifié un grave défaut de Whisper, qui consiste en la création de parties de texte ou même de phrases entières, pouvant inclure des commentaires racistes, des discours violents ou même des traitements médicaux imaginaires. Cette problématique est d’autant plus inquiétante que de nombreux secteurs utilisent Whisper pour traduire et transcrire des entretiens, générer du texte dans les technologies grand public et créer des sous-titres pour des vidéos.
Des hallucinations dans le texte transcrit
Les experts ont découvert que dans leurs travaux, comme des études de réunions publiques ou l’analyse de transcriptions, ils rencontraient fréquemment des hallucinations de la part de Whisper. Ces erreurs persistent même dans des échantillons audio bien enregistrés et courts. Une récente étude a révélé 187 hallucinations dans plus de 13 000 extraits audio clairs examinés. Selon les chercheurs, cela pourrait engendrer des milliers de transcriptions erronées sur des millions d’enregistrements.
L’utilisation de Whisper dans les domaines sensibles
Malgré les avertissements d’OpenAI indiquant de ne pas utiliser Whisper dans des “domaines à haut risque”, les hôpitaux et centres médicaux ont commencé à l’adopter pour transcrire les consultations des patients, ce qui pourrait entraîner des conséquences graves, notamment des erreurs de diagnostic. L’outil est également utilisé pour créer des sous-titres pour les personnes sourdes et malentendantes.
Problèmes de confidentialité
En raison de la confidentialité des consultations patient-médecin, il est difficile de connaître l’impact des transcriptions générées par l’IA sur les patients. Des préoccupations liées à la confidentialité se posent, car des enregistrements audio pourraient être partagés avec des entreprises technologiques sans consentement clair. Les risques sont nombreux, notamment en matière de traitement des données médicales.
Réduction des risques et meilleures pratiques
Face à ces enjeux, il est essentiel de prendre des mesures pour minimiser les risques liés à l’utilisation de l’intelligence artificielle. Cela passe par la diversification des plateformes AI, la formation des employés à l’utilisation de ces outils et la mise en place de programmes de gouvernance stricts. Il est primordial d’utiliser ces technologies avec sagesse et de mettre en place des mesures de conformité légale pour prévenir les risques potentiels.
Conclusion : L’avenir de l’IA
L’intelligence artificielle, bien que prometteuse, reste perfectible et nécessite une attention particulière pour garantir son utilisation sécurisée et éthique. Malgré les progrès réalisés, les risques persistent, soulignant la nécessité d’une surveillance constante et de l’adoption de bonnes pratiques pour minimiser les impacts négatifs.
Source : beatricedailysun.com