Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

MetaLlama 2hyperparamètres de personnalisation du modèle

Mode de mise au point
MetaLlama 2hyperparamètres de personnalisation du modèle - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les modèles Meta Llama 2 13B et 70B prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Pour de plus amples informations, veuillez consulter Personnalisez votre modèle pour améliorer ses performances en fonction de votre cas d'utilisation.

Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation à l'adresse https://ai.meta.com/llama/get-started/#fine-tuning.

Note

Le epochCount quota est ajustable.

Hyperparamètre (console) Hyperparamètre (API) Définition Type Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement entier 1 10 5
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle entier 1 1 1
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot float 5,00E-6 0.1 1,00E-4

Rubrique précédente :

CohereCommandmodèles
ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.