Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Utilizzo di modelli linguistici di grandi dimensioni per casi d'uso nel settore sanitario e delle scienze della vita
Questo descrive come utilizzare modelli linguistici di grandi dimensioni (LLMs) per applicazioni nel settore sanitario e delle scienze biologiche. Alcuni casi d'uso richiedono l'uso di un modello linguistico di grandi dimensioni per le funzionalità di intelligenza artificiale generativa. Esistono vantaggi e limiti anche per la maggior parte delle persone state-of-the-art LLMs, e i consigli contenuti in questa sezione sono progettati per aiutarti a raggiungere i risultati prefissati.
È possibile utilizzare il percorso decisionale per determinare la soluzione LLM appropriata per il proprio caso d'uso, considerando fattori quali la conoscenza del dominio e i dati di formazione disponibili. Inoltre, questa sezione illustra le più diffuse pratiche mediche preaddestrate LLMs e le migliori pratiche per la loro selezione e utilizzo. Descrive inoltre i compromessi tra soluzioni complesse e ad alte prestazioni e approcci più semplici e a basso costo.
Casi d'uso per un LLM
Amazon Comprehend Medical può eseguire attività di PNL specifiche. Per ulteriori informazioni, consulta Casi d'uso per Amazon Comprehend Medical.
Le funzionalità di intelligenza artificiale logiche e generative di un LLM potrebbero essere necessarie per i casi d'uso avanzati nel settore sanitario e delle scienze della vita, come i seguenti:
-
Classificazione di entità mediche personalizzate o categorie di testo
-
Rispondere a domande cliniche
-
Riepilogo dei referti medici
-
Generazione e rilevamento di informazioni dettagliate a partire da informazioni mediche
Approcci di personalizzazione
È fondamentale capire come LLMs vengono implementati. LLMs vengono comunemente addestrati con miliardi di parametri, inclusi i dati di addestramento provenienti da molti domini. Questa formazione consente all'LLM di affrontare le attività più generalizzate. Tuttavia, spesso sorgono sfide quando sono richieste conoscenze specifiche del dominio. Esempi di conoscenze settoriali nel settore sanitario e delle scienze della vita sono i codici clinici, la terminologia medica e le informazioni sanitarie necessarie per generare risposte accurate. Pertanto, l'utilizzo dell'LLM così com'è (senza richiedere informazioni supplementari senza ulteriori conoscenze di dominio) per questi casi d'uso probabilmente produce risultati imprecisi. Esistono due approcci che è possibile utilizzare per superare questa sfida: Retrieval Augmented Generation e fine-tuning.
Retrieval Augmented Generation
Retrieval Augmented Generation (RAG) è una tecnologia di intelligenza artificiale generativa in cui un LLM fa riferimento a una fonte di dati autorevole esterna alle sue fonti di dati di addestramento prima di generare una risposta. Un sistema RAG può recuperare informazioni sull'ontologia medica (come le classificazioni internazionali delle malattie, i fascicoli nazionali sui farmaci e i titoli delle materie mediche) da una fonte di conoscenza. Ciò fornisce un contesto aggiuntivo all'LLM a supporto dell'attività di PNL medica.
Come discusso nella Combinazione di Amazon Comprehend Medical con modelli linguistici di grandi dimensioni sezione, puoi utilizzare un approccio RAG per recuperare il contesto da Amazon Comprehend Medical. Altre fonti di conoscenza comuni includono i dati del dominio medico archiviati in un servizio di database, come Amazon OpenSearch Service, Amazon Kendra o Amazon Aurora. L'estrazione di informazioni da queste fonti di conoscenza può influire sulle prestazioni di recupero, in particolare con le query semantiche che utilizzano un database vettoriale.
Un'altra opzione per archiviare e recuperare conoscenze specifiche del dominio consiste nell'utilizzare Amazon Q Business nel flusso di lavoro RAG. Amazon Q Business può indicizzare gli archivi di documenti interni o i siti Web rivolti al pubblico (come CMS.gov
Esistono diversi modi per creare un flusso di lavoro RAG personalizzato. Ad esempio, esistono molti modi per recuperare dati da una fonte di conoscenza. Per semplicità, consigliamo l'approccio di recupero comune che prevede l'utilizzo di un database vettoriale, come Amazon OpenSearch Service, per archiviare le conoscenze sotto forma di incorporamenti. Ciò richiede l'utilizzo di un modello di incorporamento, ad esempio un trasformatore di frasi, per generare incorporamenti per la query e per la conoscenza archiviata nel database vettoriale.
Per ulteriori informazioni sugli approcci RAG completamente gestiti e personalizzati, consultate Retrieval Augmented Generation options and architectures on. AWS
Ottimizzazione
La messa a punto di un modello esistente implica l'adozione di un LLM, ad esempio un modello Amazon Titan, Mistral o Llama, e quindi l'adattamento del modello ai dati personalizzati. Esistono varie tecniche per la regolazione fine, la maggior parte delle quali prevede la modifica solo di alcuni parametri anziché la modifica di tutti i parametri del modello. Questa operazione è denominata parameter-efficient fine-tuning (PEFT). Per ulteriori informazioni, consulta Hugging
Di seguito sono riportati due casi d'uso comuni in cui è possibile scegliere di perfezionare un LLM per un'attività di PNL medica:
-
Attività generativa: i modelli basati su decoder eseguono attività di intelligenza artificiale generativa. I professionisti di AI/ML utilizzano dati di base per mettere a punto un LLM esistente. Ad esempio, potresti addestrare il LLM utilizzando MedQu AD, un set di dati pubblico per la risposta a domande mediche.
Quando si richiama una query al LLM ottimizzato, non è necessario un approccio RAG per fornire un contesto aggiuntivo al LLM. -
Incorporamenti: i modelli basati su codificatori generano incorporamenti trasformando il testo in vettori numerici. Questi modelli basati su codificatori sono in genere chiamati modelli di incorporamento. Un modello di trasformazione delle frasi è un tipo specifico di modello di incorporamento ottimizzato per le frasi. L'obiettivo è generare incorporamenti dal testo di input. Gli incorporamenti vengono quindi utilizzati per l'analisi semantica o per attività di recupero. Per ottimizzare il modello di incorporamento, è necessario disporre di un corpus di conoscenze mediche, ad esempio documenti, da utilizzare come dati di formazione. Ciò si ottiene con coppie di testo basate sulla somiglianza o sul sentimento per mettere a punto un modello di trasformazione delle frasi. Per ulteriori informazioni, consulta Training and Finetuning Embedding Models with Sentence Transformers v3
su Hugging Face.
Puoi usare Amazon SageMaker Ground Truth per creare un set di dati di addestramento etichettato e di alta qualità. Puoi utilizzare l'output del set di dati etichettato di Ground Truth per eseguire l’addestramento dei tuoi modelli. Puoi anche utilizzare l'output come set di dati di addestramento per un modello Amazon SageMaker AI. Per ulteriori informazioni sul riconoscimento di entità denominate, sulla classificazione del testo con etichetta singola e sulla classificazione del testo multietichetta, consulta Text labeling with Ground Truth nella documentazione di Amazon SageMaker AI.
Scegliere un LLM
Amazon Bedrock è il punto di partenza consigliato per valutare le alte prestazioni LLMs. Per ulteriori informazioni, consulta Modelli di base supportati in Amazon Bedrock. Puoi utilizzare i processi di valutazione dei modelli in Amazon Bedrock per confrontare gli output di più output e quindi scegliere il modello più adatto al tuo caso d'uso. Per ulteriori informazioni, consulta Scegli il modello con le migliori prestazioni utilizzando le valutazioni di Amazon Bedrock nella documentazione di Amazon Bedrock.
Alcuni LLMs hanno una formazione limitata sui dati del dominio medico. Se il tuo caso d'uso richiede la messa a punto di un LLM o un LLM non supportato da Amazon Bedrock, prendi in considerazione l'utilizzo di Amazon AI. SageMaker Nell' SageMaker intelligenza artificiale, puoi utilizzare un LLM ottimizzato o scegliere un LLM personalizzato che è stato addestrato sui dati del dominio medico.
La tabella seguente elenca i più diffusi LLMs che sono stati formati sui dati del dominio medico.
LLM | Attività | Competenze | Architettura |
---|---|---|---|
Biobert |
Recupero delle informazioni, classificazione del testo e riconoscimento di entità denominate | Riassunti PubMed, articoli completi e conoscenze generali del PubMedCentral settore | Codificatore |
Clinica Albert |
Recupero delle informazioni, classificazione del testo e riconoscimento delle entità denominate | Ampio set di dati multicentrico insieme a oltre 3.000.000 di cartelle cliniche elettroniche (EHR) di pazienti | Codificatore |
GPT clinico |
Riepilogo, risposta a domande e generazione di testo | Set di dati medici estesi e diversificati, tra cui cartelle cliniche, conoscenze specifiche del dominio e consultazioni di dialogo a più round | Decodificatore |
GatorTron-VAI |
Riepilogo, risposta a domande, generazione di testo e recupero di informazioni | Note cliniche e letteratura biomedica | Encoder |
MedBert |
Recupero delle informazioni, classificazione del testo e riconoscimento di entità denominate | Ampio set di dati di testi medici, note cliniche, documenti di ricerca e documenti relativi all'assistenza sanitaria | Codificatore |
Med-Palm |
Risposte a domande per scopi medici | Set di dati di testo medico e biomedico | Decodificatore |
MedAlpaca |
Compiti relativi alla risposta a domande e al dialogo medico | Una varietà di testi medici, che comprendono risorse come flashcard mediche, wiki e set di dati di dialogo | Decodificatore |
BioMedbert |
Recupero delle informazioni, classificazione del testo e riconoscimento di entità denominate | Esclusivamente riassunti PubMed e articoli a testo completo di PubMedCentral | Codificatore |
BioMedLM |
Riepilogo, risposta a domande e generazione di testo | Letteratura biomedica da fonti di conoscenza PubMed | Decodificatore |
Di seguito sono riportate le migliori pratiche per l'utilizzo di medici preformati: LLMs
-
Comprendi i dati di formazione e la loro rilevanza per il tuo compito di PNL in ambito medico.
-
Identifica l'architettura LLM e il suo scopo. Gli encoder sono appropriati per gli incorporamenti e le attività NLP. I decoder servono per attività di generazione.
-
Valuta i requisiti di infrastruttura, prestazioni e costi per ospitare il LLM medico preformato.
-
Se è necessaria una messa a punto precisa, assicuratevi che i dati di addestramento siano accurati e veritieri. Assicurati di mascherare o oscurare qualsiasi informazione di identificazione personale (PII) o informazione sanitaria protetta (PHI).
Le attività di PNL mediche nel mondo reale potrebbero differire da quelle già LLMs addestrate in termini di conoscenze o casi d'uso previsti. Se un LLM specifico del dominio non soddisfa i benchmark di valutazione, puoi perfezionarlo con il tuo set di dati oppure puoi addestrare un nuovo modello di base. La formazione di un nuovo modello di base è un'impresa ambiziosa e spesso costosa. Per la maggior parte dei casi d'uso, consigliamo di perfezionare un modello esistente.
Quando si utilizza o si perfeziona un LLM medico preformato, è importante occuparsi dell'infrastruttura, della sicurezza e delle barriere.
Infrastruttura
Rispetto all'utilizzo di Amazon Bedrock per l'inferenza su richiesta o in batch, l'hosting di servizi medici preformati LLMs (in genere da Hugging Face) richiede risorse significative. Per ospitare servizi medici preformati LLMs, è comune utilizzare un'immagine Amazon SageMaker AI eseguita su un'istanza Amazon Elastic Compute Cloud EC2 (Amazon) con una o più istanze GPUs, ad esempio le istanze ml.g5 per l'elaborazione accelerata o le istanze ml.inf2 per. AWS Inferentia Questo perché consumano una grande quantità di memoria e spazio su disco. LLMs
Sicurezza e guardrail
A seconda dei requisiti di conformità aziendale, prendi in considerazione l'utilizzo di Amazon Comprehend e Amazon Comprehend Medical per mascherare o oscurare le informazioni di identificazione personale (PII) e le informazioni sanitarie protette (PHI) dai dati di formazione. Questo aiuta a impedire che l'LLM utilizzi dati riservati quando genera risposte.
Ti consigliamo di prendere in considerazione e valutare pregiudizi, equità e allucinazioni nelle tue applicazioni di intelligenza artificiale generativa. Che tu stia utilizzando un LLM preesistente o che ne stia ottimizzando uno, implementa dei guardrail per prevenire risposte dannose. I guardrail sono protezioni personalizzabili in base ai requisiti delle applicazioni di intelligenza artificiale generativa e alle politiche di intelligenza artificiale responsabili. Ad esempio, puoi utilizzare Amazon Bedrock Guardrails.