Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Utilisation de grands modèles linguistiques pour les cas d'utilisation dans le domaine de la santé et des sciences de la vie
Cela décrit comment vous pouvez utiliser de grands modèles linguistiques (LLMs) pour les applications de santé et des sciences de la vie. Certains cas d'utilisation nécessitent l'utilisation d'un modèle de langage étendu pour les fonctionnalités génératives de l'IA. Il y a des avantages et des limites, même pour le plus state-of-the-art LLMs grand nombre, et les recommandations de cette section sont conçues pour vous aider à atteindre les résultats que vous vous êtes fixés.
Vous pouvez utiliser le chemin de décision pour déterminer la solution LLM adaptée à votre cas d'utilisation, en tenant compte de facteurs tels que la connaissance du domaine et les données de formation disponibles. De plus, cette section traite des pratiques médicales préformées populaires LLMs et des meilleures pratiques pour leur sélection et leur utilisation. Il aborde également les compromis entre des solutions complexes et performantes et des approches plus simples et moins coûteuses.
Cas d'utilisation d'un LLM
Amazon Comprehend Medical peut effectuer des tâches de PNL spécifiques. Pour de plus amples informations, veuillez consulter Cas d'utilisation d'Amazon Comprehend Medical.
Les capacités d'IA logiques et génératives d'un LLM peuvent être requises pour les cas d'utilisation avancés dans le domaine des soins de santé et des sciences de la vie, tels que les suivants :
-
Classification d'entités médicales personnalisées ou de catégories de texte
-
Répondre à des questions cliniques
-
Récapitulatif des rapports médicaux
-
Génération et détection d'informations à partir d'informations médicales
Approches de personnalisation
Il est essentiel de comprendre comment LLMs sont mises en œuvre. LLMs sont généralement entraînés avec des milliards de paramètres, y compris des données d'entraînement provenant de nombreux domaines. Cette formation permet au LLM d'aborder les tâches les plus générales. Cependant, des défis se présentent souvent lorsque des connaissances spécifiques à un domaine sont requises. Les codes cliniques, la terminologie médicale et les informations de santé nécessaires pour générer des réponses précises sont des exemples de connaissances dans le domaine des soins de santé et des sciences de la vie. Par conséquent, l'utilisation du LLM tel quel (invite zéro sans complément de connaissance du domaine) pour ces cas d'utilisation entraîne probablement des résultats inexacts. Vous pouvez utiliser deux approches pour surmonter ce défi : la génération augmentée par récupération et le réglage fin.
Génération augmentée de récupération
La génération augmentée de récupération (RAG) est une technologie d'IA générative dans laquelle un LLM fait référence à une source de données faisant autorité qui se trouve en dehors de ses sources de données de formation avant de générer une réponse. Un système RAG peut récupérer des informations d'ontologie médicale (telles que les classifications internationales des maladies, les fichiers nationaux sur les médicaments et les rubriques des sujets médicaux) à partir d'une source de connaissances. Cela fournit un contexte supplémentaire au LLM pour soutenir la tâche de PNL médicale.
Comme indiqué dans la Combiner Amazon Comprehend Medical avec de grands modèles linguistiques section, vous pouvez utiliser une approche RAG pour récupérer le contexte d'Amazon Comprehend Medical. Parmi les autres sources de connaissances courantes, citons les données du domaine médical stockées dans un service de base de données, tel qu'Amazon OpenSearch Service, Amazon Kendra ou Amazon Aurora. L'extraction d'informations à partir de ces sources de connaissances peut affecter les performances de récupération, en particulier dans le cas de requêtes sémantiques utilisant une base de données vectorielle.
Une autre option pour stocker et récupérer des connaissances spécifiques à un domaine consiste à utiliser Amazon Q Business dans votre flux de travail RAG. Amazon Q Business peut indexer des référentiels de documents internes ou des sites Web destinés au public (tels que CMS.gov
Il existe plusieurs manières de créer un flux de travail RAG personnalisé. Par exemple, il existe de nombreuses manières de récupérer des données à partir d'une source de connaissances. Pour des raisons de simplicité, nous recommandons l'approche de récupération courante qui consiste à utiliser une base de données vectorielle, telle qu'Amazon OpenSearch Service, pour stocker les connaissances sous forme d'intégrations. Cela nécessite que vous utilisiez un modèle d'intégration, tel qu'un transformateur de phrases, pour générer des intégrations pour la requête et pour les connaissances stockées dans la base de données vectorielle.
Pour plus d'informations sur les approches RAG entièrement gérées et personnalisées, voir Options et architectures de génération augmentée de récupération sur. AWS
Affinement
Pour peaufiner un modèle existant, il faut passer un LLM, tel qu'un modèle Amazon Titan, Mistral ou Llama, puis adapter le modèle à vos données personnalisées. Il existe différentes techniques de réglage précis, dont la plupart impliquent de ne modifier que quelques paramètres au lieu de modifier tous les paramètres du modèle. C'est ce qu'on appelle le réglage fin efficace par paramètres (PEFT). Pour plus d'informations, voir Hugging Face
Voici deux cas d'utilisation courants dans lesquels vous pouvez choisir d'affiner un LLM pour une tâche de PNL médicale :
-
Tâche générative — Les modèles basés sur le décodeur exécutent des tâches d'IA génératives. Les praticiens de l'IA/ML utilisent des données de base pour affiner un LLM existant. Par exemple, vous pouvez former le LLM en utilisant MedQuAD
, un ensemble de données public de réponses aux questions médicales. Lorsque vous appelez une requête au LLM affiné, vous n'avez pas besoin d'une approche RAG pour fournir le contexte supplémentaire au LLM. -
Embeddings — Les modèles basés sur des encodeurs génèrent des intégrations en transformant le texte en vecteurs numériques. Ces modèles basés sur des codeurs sont généralement appelés modèles d'intégration. Un modèle de transformateur de phrases est un type spécifique de modèle d'intégration optimisé pour les phrases. L'objectif est de générer des intégrations à partir du texte saisi. Les intégrations sont ensuite utilisées pour l'analyse sémantique ou pour des tâches de récupération. Pour affiner le modèle d'intégration, vous devez disposer d'un corpus de connaissances médicales, tels que des documents, que vous pouvez utiliser comme données de formation. Pour ce faire, des paires de texte basées sur la similitude ou le sentiment sont utilisées pour affiner un modèle de transformation de phrases. Pour plus d'informations, voir Entraînement et optimisation des modèles d'intégration avec Sentence Transformers v3 sur Hugging Face
.
Vous pouvez utiliser Amazon SageMaker Ground Truth pour créer un ensemble de données de formation labellisé de haute qualité. Vous pouvez utiliser le jeu de données étiquetées généré par Ground Truth pour entraîner vos propres modèles. Vous pouvez également utiliser le résultat comme jeu de données d'entraînement pour un modèle Amazon SageMaker AI. Pour plus d'informations sur la reconnaissance des entités nommées, la classification du texte à étiquette unique et la classification du texte à étiquettes multiples, consultez la section Étiquetage de texte avec Ground Truth dans la documentation Amazon SageMaker AI.
Choisir un LLM
Amazon Bedrock est le point de départ recommandé pour évaluer les performances élevées LLMs. Pour plus d'informations, consultez la section Modèles de fondation pris en charge dans Amazon Bedrock. Vous pouvez utiliser des tâches d'évaluation de modèles dans Amazon Bedrock afin de comparer les résultats de plusieurs sorties, puis de choisir le modèle le mieux adapté à votre cas d'utilisation. Pour plus d'informations, consultez Choisir le modèle le plus performant à l'aide des évaluations Amazon Bedrock dans la documentation Amazon Bedrock.
Certains LLMs ont une formation limitée sur les données du domaine médical. Si votre cas d'utilisation nécessite de peaufiner un LLM ou un LLM qu'Amazon Bedrock ne prend pas en charge, pensez à utiliser Amazon AI. SageMaker En SageMaker IA, vous pouvez utiliser un LLM affiné ou choisir un LLM personnalisé qui a été formé sur les données du domaine médical.
Le tableau suivant répertorie les personnes les plus populaires LLMs qui ont été formées sur les données du domaine médical.
LLM | Tâches | Connaissances | Architecture |
---|---|---|---|
BioBert |
Récupération d'informations, classification de texte et reconnaissance d'entités nommées | Résumés PubMed, articles en texte intégral et connaissances PubMedCentral générales sur le domaine | Encodeur |
Clinique Albert |
Récupération d'informations, classification de texte et reconnaissance d'entités nommées | Vaste ensemble de données multicentrique ainsi que plus de 3 000 000 de dossiers patients issus de systèmes de dossiers médicaux électroniques (DSE) | Encodeur |
GPT clinique |
Récapitulatif, réponse aux questions et génération de texte | Des ensembles de données médicaux étendus et variés, y compris des dossiers médicaux, des connaissances spécifiques à un domaine et des consultations de dialogue à plusieurs niveaux | Décodeur |
GatorTron-OG |
Synthèse, réponse aux questions, génération de texte et recherche d'informations | Notes cliniques et littérature biomédicale | Encodeur |
Med-Bert |
Récupération d'informations, classification de texte et reconnaissance d'entités nommées | Vaste ensemble de données de textes médicaux, de notes cliniques, de documents de recherche et de documents liés aux soins de santé | Encodeur |
Med-Palm |
Réponse à des questions à des fins médicales | Ensembles de données de textes médicaux et biomédicaux | Décodeur |
Alpaga médaillé |
Tâches de réponse aux questions et de dialogue médical | Une variété de textes médicaux, comprenant des ressources telles que des fiches médicales, des wikis et des ensembles de données de dialogue | Décodeur |
BioMedbert |
Récupération d'informations, classification de texte et reconnaissance d'entités nommées | Exclusivement des résumés PubMed et des articles en texte intégral de PubMedCentral | Encodeur |
BioMedLM |
Récapitulatif, réponse aux questions et génération de texte | Littérature biomédicale issue de sources de PubMed connaissances | Décodeur |
Voici les meilleures pratiques en matière d'utilisation de médecins LLMs préformés :
-
Comprenez les données d'entraînement et leur pertinence pour votre tâche de PNL médicale.
-
Identifiez l'architecture LLM et son objectif. Les encodeurs sont appropriés pour les intégrations et les tâches NLP. Les décodeurs sont destinés aux tâches de génération.
-
Évaluez les exigences en matière d'infrastructure, de performance et de coûts pour l'hébergement du LLM médical préformé.
-
Si un ajustement précis est nécessaire, assurez-vous que les données d'entraînement sont exactes sur le terrain ou que vous connaissez bien le terrain. Assurez-vous de masquer ou de supprimer les informations personnelles identifiables (PII) ou les informations de santé protégées (PHI).
Les tâches de PNL médicale dans le monde réel peuvent différer de celles d'une personne préformée LLMs en termes de connaissances ou de cas d'utilisation prévus. Si un LLM spécifique à un domaine ne répond pas à vos critères d'évaluation, vous pouvez affiner un LLM avec votre propre ensemble de données ou vous pouvez créer un nouveau modèle de base. La formation d'un nouveau modèle de base est une entreprise ambitieuse et souvent coûteuse. Dans la plupart des cas d'utilisation, nous recommandons de peaufiner un modèle existant.
Lorsque vous utilisez ou peaufinez un LLM médical préformé, il est important de prendre en compte l'infrastructure, la sécurité et les garde-corps.
Infrastructure
Par rapport à l'utilisation d'Amazon Bedrock pour des inférences à la demande ou par lots, l'hébergement de services médicaux préqualifiés LLMs (généralement fournis par Hugging Face) nécessite des ressources importantes. Pour héberger des équipes médicales préqualifiées LLMs, il est courant d'utiliser une image Amazon SageMaker AI qui s'exécute sur une instance Amazon Elastic Compute Cloud (Amazon EC2) avec une ou plusieurs instances GPUs, telles que des instances ml.g5 pour le calcul accéléré ou des instances ml.inf2 pour. AWS Inferentia Cela est dû au fait qu'ils LLMs consomment une grande quantité de mémoire et d'espace disque.
Sécurité et garde-corps
En fonction des exigences de conformité de votre entreprise, pensez à utiliser Amazon Comprehend et Amazon Comprehend Medical pour masquer ou supprimer les informations personnelles identifiables (PII) et les informations de santé protégées (PHI) des données de formation. Cela permet d'empêcher le LLM d'utiliser des données confidentielles lorsqu'il génère des réponses.
Nous vous recommandons de prendre en compte et d'évaluer les biais, l'équité et les hallucinations dans vos applications d'IA générative. Que vous utilisiez un LLM préexistant ou que vous le peaufiniez, mettez en place des garde-fous pour empêcher les réponses préjudiciables. Les garde-fous sont des mesures de protection que vous personnalisez en fonction des exigences de vos applications d'IA générative et de vos politiques responsables en matière d'IA. Par exemple, vous pouvez utiliser Amazon Bedrock Guardrails.