Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
MetaLlama 2hyperparamètres de personnalisation du modèle
Les modèles Meta Llama 2 13B et 70B prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Pour de plus amples informations, veuillez consulter Personnalisez votre modèle pour améliorer ses performances en fonction de votre cas d'utilisation.
Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation à l'adresse https://ai.meta.com/llama/get-started/#fine-tuning
Note
Le epochCount
quota est ajustable.
Hyperparamètre (console) | Hyperparamètre (API) | Définition | Type | Minimum | Maximum | Par défaut |
---|---|---|---|---|---|---|
Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | entier | 1 | 10 | 5 |
Taille de lot | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | entier | 1 | 1 | 1 |
Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | float | 5,00E-6 | 0.1 | 1,00E-4 |