Pré-treinamento contínuo (CPT)
Pré-treinamento contínuo (CPT) é uma técnica que amplia as habilidades de um modelo de idioma pré-treinado, treinando-o em novos dados específicos do domínio, preservando sua compreensão geral do idioma. Ao contrário do ajuste, o CPT usa os mesmos objetivos não supervisionados que o pré-treinamento original (como modelagem de idioma mascarada ou causal) e não modifica a arquitetura do modelo.
O CPT é particularmente útil quando você tem grandes quantidades de dados específicos dos domínios não rotulados (como textos médicos ou financeiros) e deseja melhorar a performance do modelo em áreas especializadas sem perder suas habilidades gerais. Essa abordagem aprimora a performance com nenhuma ou poucas tentativas nos domínios-alvo sem exigir extenso ajuste específico para as tarefas.
Para obter instruções detalhadas sobre o uso de DPO com a personalização do modelos do Amazon Nova, consulte a seção Continued Pre-Training (CPT) do Sage Maker User Guide.