L’IA générative dans l’industrie de la santé a besoin d’une dose d’explicabilité.
L'IA générative dans la santé a besoin d'explicabilité.
La vitesse remarquable à laquelle les outils d’IA générative basés sur du texte peuvent accomplir des tâches d’écriture et de communication de haut niveau a fait mouche auprès des entreprises et des consommateurs. Mais les processus qui se déroulent en coulisses pour permettre ces capacités impressionnantes peuvent rendre risquée l’utilisation de l’IA générative pour les industries sensibles et réglementées par le gouvernement, telles que l’assurance, la finance ou les soins de santé, sans prendre de grandes précautions.
Certaines des exemples les plus illustratifs de cela se trouvent dans l’industrie des soins de santé.
Ces problèmes sont généralement liés aux ensembles de données étendus et diversifiés utilisés pour former les modèles de langage volumineux (LLM) – les modèles dont se nourrissent les outils d’IA générative basés sur du texte pour accomplir des tâches de haut niveau. Sans intervention explicite de programmeurs, ces LLM ont tendance à collecter des données de manière indiscriminée à partir de diverses sources sur Internet pour élargir leur base de connaissances.
Cette approche est la plus appropriée pour des cas d’utilisation orientés vers les consommateurs à faible risque, dans lesquels l’objectif ultime est d’orienter les clients vers des offres souhaitables avec précision. Cependant, de plus en plus, les vastes ensembles de données et les parcours confus par lesquels les modèles d’IA génèrent leurs résultats obscurcissent l’explicabilité dont les hôpitaux et les prestataires de soins de santé ont besoin pour retracer et prévenir les éventuelles inexactitudes.
- AnomalyGPT Détection d’anomalies industrielles à l’aide de LVLM
- Annotation d’images à code source fermé vs à code source ouvert
- Déverrouiller le langage des génomes et du climat Anima Anandkumar sur l’utilisation de l’IA générative pour relever les défis mondiaux
Dans ce contexte, l’explicabilité fait référence à la capacité de comprendre les parcours logiques d’un LLM donné. Les professionnels de la santé qui souhaitent adopter des outils d’IA générative d’assistance doivent avoir les moyens de comprendre comment leurs modèles produisent des résultats, afin que les patients et le personnel disposent d’une transparence totale tout au long des différents processus de prise de décision. En d’autres termes, dans une industrie comme les soins de santé, où des vies sont en jeu, les enjeux sont tout simplement trop élevés pour que les professionnels interprètent mal les données utilisées pour former leurs outils d’IA.
Heureusement, il existe un moyen de contourner le dilemme de l’explicabilité de l’IA générative – cela nécessite simplement un peu plus de contrôle et de concentration.
Mystère et scepticisme
Dans l’IA générative, le concept de comprendre comment un LLM passe du point A – l’entrée – au point B – la sortie – est bien plus complexe qu’avec des algorithmes non génératifs qui suivent des modèles plus définis.
Les outils d’IA générative établissent d’innombrables connexions en se déplaçant de l’entrée à la sortie, mais pour l’observateur extérieur, comment et pourquoi ils établissent une série donnée de connexions reste un mystère. Sans moyen de voir le “processus de réflexion” qu’un algorithme d’IA suit, les opérateurs humains manquent d’un moyen approfondi d’investiguer son raisonnement et de retracer les éventuelles inexactitudes.
De plus, les ensembles de données continuellement en expansion utilisés par les algorithmes d’apprentissage automatique compliquent encore davantage l’explicabilité. Plus l’ensemble de données est important, plus il est probable que le système apprenne à la fois des informations pertinentes et non pertinentes et produise des “hallucinations d’IA” – des faussetés qui s’écartent des faits externes et de la logique contextuelle, même de manière convaincante.
Dans l’industrie des soins de santé, ce type de résultats erronés peut entraîner une multitude de problèmes, tels que des erreurs de diagnostic et des prescriptions incorrectes. Outre les conséquences éthiques, légales et financières, de telles erreurs pourraient facilement nuire à la réputation des prestataires de soins de santé et des établissements médicaux qu’ils représentent.
Ainsi, malgré son potentiel pour améliorer les interventions médicales, améliorer la communication avec les patients et renforcer l’efficacité opérationnelle, l’IA générative dans le domaine de la santé reste entourée de scepticisme, et à juste titre – 55% des cliniciens ne croient pas qu’elle soit prête pour une utilisation médicale et 58% lui font entièrement confiance. Pourtant, les organisations de santé avancent, avec 98% intégrant ou planifiant une stratégie de déploiement d’IA générative afin de pallier l’impact de la pénurie de main-d’œuvre dans le secteur.
Contrôler la source
L’industrie des soins de santé est souvent prise au dépourvu dans le climat actuel des consommateurs, qui valorise l’efficacité et la rapidité au détriment de mesures de sécurité infaillibles. Les récentes actualités concernant les pièges du grattage de données presque illimitées pour former des LLM, entraînant des poursuites pour violation du droit d’auteur, ont mis ces problèmes au premier plan. Certaines entreprises font également face à des accusations selon lesquelles les données personnelles des citoyens ont été utilisées pour former ces modèles de langage, violant potentiellement les lois sur la vie privée.
Les développeurs d’IA pour les industries hautement réglementées devraient donc exercer un contrôle sur les sources de données pour limiter les erreurs potentielles. C’est-à-dire privilégier l’extraction de données à partir de sources fiables et validées par l’industrie, plutôt que de gratter de manière aléatoire des pages Web externes sans autorisation explicite. Pour l’industrie des soins de santé, cela signifie limiter les entrées de données aux pages de FAQ, aux fichiers CSV et aux bases de données médicales – entre autres sources internes.
Si cela semble quelque peu limitant, essayez de rechercher un service sur le site Web d’un grand système de santé. Les organisations de santé aux États-Unis publient des centaines, voire des milliers de pages d’informations sur leurs plateformes ; la plupart sont si bien cachées que les patients ne peuvent jamais y accéder réellement. Les solutions d’IA générative basées sur des données internes peuvent fournir ces informations aux patients de manière pratique et transparente. C’est un avantage pour tous, car le système de santé voit enfin un retour sur investissement grâce à ces contenus, et les patients peuvent trouver instantanément et facilement les services dont ils ont besoin.
Quelle est la prochaine étape pour l’IA générative dans les industries réglementées ?
L’industrie de la santé peut bénéficier de l’IA générative de plusieurs façons.
Considérez, par exemple, l’épuisement généralisé qui affecte le secteur de la santé aux États-Unis ces derniers temps – près de 50 % de la main-d’œuvre devrait démissionner d’ici 2025. Les chatbots alimentés par l’IA générative pourraient contribuer à alléger une grande partie de la charge de travail et préserver l’accès des patients aux équipes de soins surchargées.
Côté patients, l’IA générative a le potentiel d’améliorer les services des centres d’appels des prestataires de soins de santé. L’automatisation de l’IA a le pouvoir de répondre à un large éventail de demandes via différents canaux de contact, notamment les FAQ, les problèmes informatiques, les renouvellements de médicaments et les recommandations de médecins. En plus de la frustration liée à l’attente au téléphone, seulement environ la moitié des patients américains parviennent à résoudre leurs problèmes lors de leur premier appel, ce qui entraîne des taux d’abandon élevés et un accès aux soins limité. La faible satisfaction des clients qui en résulte exerce une pression supplémentaire sur l’industrie pour agir.
Pour que l’industrie puisse réellement bénéficier de la mise en œuvre de l’IA générative, les prestataires de soins de santé doivent faciliter une restructuration intentionnelle des données auxquelles leurs LLM ont accès.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Enquête VoAGI Comparaison avec vos pairs sur les dépenses et tendances en science des données 2023 H2
- Les 7 principales tendances du marketing numérique à surveiller en 2023
- Découvrez TensorRT-LLM une bibliothèque open-source qui accélère et optimise les performances d’inférence sur les derniers LLMs sur les GPU NVIDIA Tensor Core.
- Les chercheurs de Microsoft présentent InstructDiffusion un cadre d’IA unificateur et générique pour aligner les tâches de vision par ordinateur avec les instructions humaines.
- Affiner Llama 2 70B en utilisant PyTorch FSDP
- Application des statistiques descriptives et inférentielles en Python
- Stability AI lance le premier modèle japonais de vision-langage