As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Hiperparâmetros de personalização de modelos Llama 3.1 da Meta
Os modelos Llama 3.1 8B e 70B da Meta são compatíveis com os hiperparâmetros a seguir para a personalização de modelos. O número de épocas que você especifica aumenta o custo de personalização do modelo ao processar mais tokens. Cada época processa todo o conjunto de dados de treinamento uma vez. Para obter mais informações sobre preços, consulte Preços do Amazon Bedrock
Para obter informações sobre o ajuste fino dos modelos Meta Llama, consulte a Meta documentação em https://ai.meta.com/llama/get-started/ #fine -tuning
nota
A cota de epochCount
é ajustável.
Hiperparâmetro (console) | Hiperparâmetro (API) | Definição | Mínimo | Máximo | Padrão |
---|---|---|---|---|---|
Epochs | epochCount | O número de iterações em todo o conjunto de dados de treinamento | 1 | 10 | 5 |
Tamanho do lote | batchSize | O número de amostras processadas antes da atualização dos parâmetros do modelo | 1 | 1 | 1 |
Taxa de aprendizado | learningRate | A taxa em que os parâmetros do modelo são atualizados após cada lote | 5.00E-6 | 0.1 | 1.00E-4 |