5 juillet 2024

Krusell France

Ta dose d'actu digital !

Large language models améliorent la compréhension des rapports radiologiques par les patients

Large language models help patients understand radiology reports
Rate this post

Améliorer la compréhension des rapports de radiologie grâce aux modèles linguistiques

Les larges modèles linguistiques peuvent générer des résumés qui pourraient aider les patients à mieux comprendre leurs rapports de radiologie, bien qu’une supervision humaine soit nécessaire, selon une recherche publiée le 1er juillet dans le Journal de l’American College of Radiology.

Une équipe dirigée par Kayla Berigan, MD, de l’University of Vermont Medical Center à Burlington, a constaté que les patients ayant reçu des rapports de radiologie, avec et sans un résumé généré par un grand modèle linguistique, avaient plus de chances de mieux comprendre leurs rapports par rapport à la norme de soins habituelle.

“Cette petite étude pilote soutient une justification pour des rapports conviviaux pour les patients, y compris ceux générés par de grands modèles linguistiques”, a écrit l’équipe de Berigan.

Impact des résumés générés par les modèles linguistiques

La loi 21st Century Cures Act a imposé un accès immédiat des patients aux rapports de radiologie. Des études antérieures suggèrent que les patients préfèrent un accès immédiat aux résultats via le portail patient mais peuvent ne pas les comprendre et préféreraient des versions en langage simple ou des résumés.

Étant donné que des larges modèles linguistiques tels que ChatGPT et Gemini (anciennement Google Bard) sont devenus publics, les patients ont cherché des réponses à des questions médicales à partir de ces chatbots. Cependant, les réponses générées par les modèles peuvent contenir des informations incorrectes et ne pas correspondre aux recommandations des radiologues.

Berigan et ses collègues ont étudié l’impact des rapports de synthèse, avec ou sans résumés générés par de grands modèles linguistiques, sur la compréhension des patients dans un cadre clinique prospectif.

Les chercheurs ont trouvé un effet de groupe significatif sur le niveau de compréhension (p = 0,04). Les cohortes qui ont reçu des rapports Scanslated ou l’approche combinée avec un résumé généré par Gemini, ont déclaré avoir un meilleur niveau de compréhension par rapport à la norme de soins. Cela comprenait des rapports de cotes de 3,09 (cohorte Scanslated) et 5,02 (approche combinée), respectivement.

Cependant, l’équipe n’a observé aucun effet de groupe significatif sur le besoin de rechercher le contenu des rapports en ligne (p = 0,07).

Sur les 51 résumés générés par de grands modèles linguistiques fournis aux patients, 80,4 % (n = 41) ont nécessité une édition avant diffusion. Les auteurs de l’étude ont noté que cela était fait “généralement” pour supprimer les suggestions de pronostic, de traitement ou de causalité.

Les auteurs ont souligné que cette constatation souligne la nécessité d’une supervision humaine avant un déploiement clinique généralisé.

“Les travaux futurs devraient mesurer l’impact auprès de populations plus importantes et plus diversifiées, élargir à différents environnements cliniques, évaluer le retour sur investissement potentiel et affiner les performances des grands modèles linguistiques”, ont-ils écrit.

Source : www.auntminnie.com

  • Mia Dufresne

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications