MetaLlama 2hyperparamètres de personnalisation du modèle - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

MetaLlama 2hyperparamètres de personnalisation du modèle

Les modèles Meta Llama 2 13B et 70B prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Pour de plus amples informations, veuillez consulter Personnalisez votre modèle pour améliorer ses performances en fonction de votre cas d'utilisation.

Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation à l'adresse https://ai.meta.com/llama/get-started/#fine-tuning.

Note

Le epochCount quota est ajustable.

Hyperparamètre (console) Hyperparamètre (API) Définition Type Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement entier 1 10 5
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle entier 1 1 1
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot float 5,00E-6 0.1 1,00E-4