Usando grandes modelos de linguagem para casos de uso de saúde e ciências biológicas - AWS Orientação prescritiva

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Usando grandes modelos de linguagem para casos de uso de saúde e ciências biológicas

Isso descreve como você pode usar modelos de linguagem grandes (LLMs) para aplicações de saúde e ciências biológicas. Alguns casos de uso exigem o uso de um grande modelo de linguagem para recursos generativos de IA. Há vantagens e limitações até mesmo para a maioria state-of-the-art LLMs, e as recomendações nesta seção foram elaboradas para ajudá-lo a atingir os resultados desejados.

Você pode usar o caminho de decisão para determinar a solução LLM apropriada para seu caso de uso, considerando fatores como conhecimento do domínio e dados de treinamento disponíveis. Além disso, esta seção discute os médicos pré-treinados populares LLMs e as melhores práticas para sua seleção e uso. Ele também discute as vantagens e desvantagens entre soluções complexas de alto desempenho e abordagens mais simples e de baixo custo.

Casos de uso para um LLM

O Amazon Comprehend Medical pode realizar tarefas específicas de PNL. Para obter mais informações, consulte Casos de uso do Amazon Comprehend Medical.

Os recursos lógicos e generativos de IA de um LLM podem ser necessários para os casos de uso avançados de saúde e ciências biológicas, como os seguintes:

  • Classificação de entidades médicas personalizadas ou categorias de texto

  • Respondendo a perguntas clínicas

  • Resumindo relatórios médicos

  • Gerando e detectando insights a partir de informações médicas

Abordagens de personalização

É fundamental entender como LLMs são implementados. LLMs geralmente são treinados com bilhões de parâmetros, incluindo dados de treinamento de vários domínios. Esse treinamento permite que o LLM aborde as tarefas mais generalizadas. No entanto, muitas vezes surgem desafios quando o conhecimento específico do domínio é necessário. Exemplos de conhecimento de domínio em saúde e ciências biológicas são códigos clínicos, terminologia médica e informações de saúde necessárias para gerar respostas precisas. Portanto, usar o LLM como está (solicitação zero sem complementar o conhecimento do domínio) para esses casos de uso provavelmente resulta em resultados imprecisos. Há duas abordagens que você pode usar para superar esse desafio: Recuperação, geração aumentada e ajuste fino.

geração aumentada via recuperação

A Retrieval Augmented Generation (RAG) é uma tecnologia generativa de IA na qual um LLM faz referência a uma fonte de dados autorizada que está fora de suas fontes de dados de treinamento antes de gerar uma resposta. Um sistema RAG pode recuperar informações de ontologia médica (como classificações internacionais de doenças, arquivos nacionais de medicamentos e títulos de assuntos médicos) de uma fonte de conhecimento. Isso fornece contexto adicional ao LLM para apoiar a tarefa médica de PNL.

Conforme discutido na Combinando o Amazon Comprehend Medical com grandes modelos de linguagem seção, você pode usar uma abordagem RAG para recuperar o contexto do Amazon Comprehend Medical. Outras fontes de conhecimento comuns incluem dados de domínio médico que são armazenados em um serviço de banco de dados, como Amazon OpenSearch Service, Amazon Kendra ou Amazon Aurora. Extrair informações dessas fontes de conhecimento pode afetar o desempenho da recuperação, especialmente com consultas semânticas que usam um banco de dados vetoriais.

Outra opção para armazenar e recuperar conhecimento específico do domínio é usar o Amazon Q Business em seu fluxo de trabalho do RAG. O Amazon Q Business pode indexar repositórios internos de documentos ou sites públicos (como CMS.gov para dados do ICD-10). O Amazon Q Business pode então extrair informações relevantes dessas fontes antes de passar sua consulta para o LLM.

Há várias maneiras de criar um fluxo de trabalho de RAG personalizado. Por exemplo, há muitas maneiras de recuperar dados de uma fonte de conhecimento. Para simplificar, recomendamos a abordagem comum de recuperação de usar um banco de dados vetoriais, como o Amazon OpenSearch Service, para armazenar conhecimento como incorporações. Isso exige que você use um modelo de incorporação, como um transformador de frases, para gerar incorporações para a consulta e para o conhecimento armazenado no banco de dados vetoriais.

Para obter mais informações sobre abordagens RAG totalmente gerenciadas e personalizadas, consulte Opções e arquiteturas de geração aumentada de recuperação em. AWS

Ajuste

O ajuste fino de um modelo existente envolve usar um LLM, como um modelo Amazon Titan, Mistral ou Llama, e depois adaptar o modelo aos seus dados personalizados. Existem várias técnicas de ajuste fino, a maioria das quais envolve a modificação de apenas alguns parâmetros em vez de modificar todos os parâmetros do modelo. Isso é chamado de ajuste fino com eficiência de parâmetros (PEFT). Para obter mais informações, consulte Hugging Face PEFT ativado. GitHub

A seguir estão dois casos de uso comuns em que você pode optar por ajustar um LLM para uma tarefa médica de PNL:

  • Tarefa generativa — modelos baseados em decodificador realizam tarefas generativas de IA. Os profissionais de IA/ML usam dados reais básicos para ajustar um LLM existente. Por exemplo, você pode treinar o LLM usando o MedQuAD, um conjunto de dados público de respostas a perguntas médicas. Ao invocar uma consulta para o LLM ajustado, você não precisa de uma abordagem RAG para fornecer o contexto adicional ao LLM.

  • Incorporações — modelos baseados em codificadores geram incorporações transformando texto em vetores numéricos. Esses modelos baseados em codificadores são normalmente chamados de modelos de incorporação. Um modelo de transformador de sentenças é um tipo específico de modelo de incorporação otimizado para sentenças. O objetivo é gerar incorporações a partir do texto de entrada. As incorporações são então usadas para análise semântica ou em tarefas de recuperação. Para ajustar o modelo de incorporação, você deve ter um conjunto de conhecimentos médicos, como documentos, que possa ser usado como dados de treinamento. Isso é feito com pares de texto baseados em semelhança ou sentimento para ajustar um modelo de transformador de frases. Para obter mais informações, consulte Treinando e ajustando modelos de incorporação com Sentence Transformers v3 em Hugging Face.

Você pode usar o Amazon SageMaker Ground Truth para criar um conjunto de dados de treinamento rotulado e de alta qualidade. Você pode usar a saída de conjunto de dados rotulado do Ground Truth para treinar seus próprios modelos. Você também pode usar a saída como um conjunto de dados de treinamento para um modelo de SageMaker IA da Amazon. Para obter mais informações sobre reconhecimento de entidade nomeada, classificação de texto com rótulo único e classificação de texto com vários rótulos, consulte Rotulagem de texto com Ground Truth na documentação da Amazon SageMaker AI.

Escolhendo um LLM

O Amazon Bedrock é o ponto de partida recomendado para avaliar o alto desempenho LLMs. Para obter mais informações, consulte Modelos de fundação compatíveis no Amazon Bedrock. Você pode usar trabalhos de avaliação de modelos no Amazon Bedrock para comparar as saídas de várias saídas e, em seguida, escolher o modelo mais adequado ao seu caso de uso. Para obter mais informações, consulte Escolha o modelo de melhor desempenho usando as avaliações do Amazon Bedrock na documentação do Amazon Bedrock.

Alguns LLMs têm treinamento limitado em dados do domínio médico. Se seu caso de uso exigir o ajuste fino de um LLM ou de um LLM que o Amazon Bedrock não suporta, considere usar o Amazon AI. SageMaker Na SageMaker IA, você pode usar um LLM ajustado ou escolher um LLM personalizado que tenha sido treinado em dados do domínio médico.

A tabela a seguir lista pessoas populares LLMs que foram treinadas em dados do domínio médico.

LLM Tarefas Conhecimento Arquitetura
BioBert Recuperação de informações, classificação de texto e reconhecimento de entidade nomeada Resumos de PubMed, artigos em texto completo e conhecimento geral do PubMedCentral domínio Codificador
Clínica Albert Recuperação de informações, classificação de texto e reconhecimento de entidade nomeada Grande conjunto de dados multicêntrico, juntamente com mais de 3.000.000 de registros de pacientes de sistemas de prontuário eletrônico de saúde (EHR) Codificador
GPT clínico Sumarização, resposta a perguntas e geração de texto Conjuntos de dados médicos extensos e diversos, incluindo registros médicos, conhecimento específico do domínio e consultas de diálogo em várias rodadas Decodificador
GatorTron-GO Sumarização, resposta a perguntas, geração de texto e recuperação de informações Notas clínicas e literatura biomédica Codificador
Med-bert Recuperação de informações, classificação de texto e reconhecimento de entidade nomeada Grande conjunto de dados de textos médicos, notas clínicas, trabalhos de pesquisa e documentos relacionados à saúde Codificador
Palmeira vermelha Resposta a perguntas para fins médicos Conjuntos de dados de textos médicos e biomédicos Decodificador
Medalha Paca Tarefas de resposta a perguntas e diálogo médico Uma variedade de textos médicos, abrangendo recursos como flashcards médicos, wikis e conjuntos de dados de diálogos Decodificador
BioMedBert Recuperação de informações, classificação de texto e reconhecimento de entidade nomeada Exclusivamente resumos PubMed e artigos em texto completo de PubMedCentral Codificador
BioMedLM Sumarização, resposta a perguntas e geração de texto Literatura biomédica a partir de fontes de PubMed conhecimento Decodificador

A seguir estão as melhores práticas para o uso de médicos LLMs pré-treinados:

  • Entenda os dados de treinamento e sua relevância para sua tarefa médica de PNL.

  • Identifique a arquitetura LLM e sua finalidade. Os codificadores são apropriados para incorporações e tarefas de PNL. Os decodificadores são para tarefas de geração.

  • Avalie os requisitos de infraestrutura, desempenho e custo para hospedar o LLM médico pré-treinado.

  • Se for necessário um ajuste fino, garanta a veracidade ou o conhecimento precisos dos dados de treinamento. Certifique-se de mascarar ou redigir qualquer informação de identificação pessoal (PII) ou informação de saúde protegida (PHI).

As tarefas de PNL médica do mundo real podem ser diferentes das pré-treinadas LLMs em termos de conhecimento ou casos de uso pretendidos. Se um LLM específico de domínio não atender aos seus benchmarks de avaliação, você pode ajustar um LLM com seu próprio conjunto de dados ou treinar um novo modelo básico. Treinar um novo modelo de fundação é uma tarefa ambiciosa e, muitas vezes, cara. Para a maioria dos casos de uso, recomendamos o ajuste fino de um modelo existente.

Quando você usa ou ajusta um LLM médico pré-treinado, é importante abordar a infraestrutura, a segurança e as barreiras de proteção.

Infraestrutura

Em comparação com o uso do Amazon Bedrock para inferência sob demanda ou em lote, hospedar médicos pré-treinados LLMs (geralmente da Hugging Face) requer recursos significativos. Para hospedar médicos pré-treinados LLMs, é comum usar uma imagem de SageMaker IA da Amazon que é executada em uma instância do Amazon Elastic Compute Cloud EC2 (Amazon) com uma ou mais GPUs, como instâncias ml.g5 para computação acelerada ou instâncias ml.inf2 para. AWS Inferentia Isso ocorre porque LLMs consome uma grande quantidade de memória e espaço em disco.

Segurança e grades de proteção

Dependendo dos requisitos de conformidade da sua empresa, considere usar o Amazon Comprehend e o Amazon Comprehend Medical para mascarar ou redigir informações de identificação pessoal (PII) e informações de saúde protegidas (PHI) dos dados de treinamento. Isso ajuda a evitar que o LLM use dados confidenciais ao gerar respostas.

Recomendamos que você considere e avalie preconceitos, imparcialidade e alucinações em seus aplicativos generativos de IA. Se você estiver usando um LLM preexistente ou ajustando um, implemente grades de proteção para evitar respostas prejudiciais. As grades de proteção são proteções que você personaliza de acordo com seus requisitos generativos de aplicativos de IA e políticas de IA responsáveis. Por exemplo, você pode usar o Amazon Bedrock Guardrails.