Démarrage - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Démarrage

Soumettre un travail d'évaluation via SageMaker Studio

Étape 1 : Accédez à l'évaluation à partir de votre carte modèle

Après avoir personnalisé votre modèle, accédez à la page d'évaluation depuis votre fiche modèle.

Pour plus d'informations sur l'entraînement sur modèle personnalisé avec poids libre : https://docs.aws.amazon.com/sagemaker/latest/dg/model- .html customize-open-weight-job

SageMaker visualise votre modèle personnalisé dans l'onglet Mes modèles :

Page de carte modèle enregistrée

Choisissez Afficher la dernière version, puis sélectionnez Évaluer :

Page de personnalisation du modèle

Étape 2 : Soumettez votre job d'évaluation

Cliquez sur le bouton Soumettre et soumettez votre travail d'évaluation. Cela soumet une tâche de référence minimale au MMLU.

Pour plus d'informations sur les types de tâches d'évaluation pris en charge, consultezTypes d'évaluation et soumission de Job.

Page de soumission des tâches d'évaluation

Étape 3 : Suivez la progression de votre job d'évaluation

La progression de votre tâche d'évaluation est suivie dans l'onglet Étapes d'évaluation :

L'avancement de votre tâche d'évaluation

Étape 4 : Afficher les résultats de votre job d'évaluation

Les résultats de votre travail d'évaluation sont visualisés dans l'onglet Résultats de l'évaluation :

Les indicateurs de votre travail d'évaluation

Étape 5 : Afficher vos évaluations terminées

Votre tâche d'évaluation terminée est affichée dans Évaluations de votre modèle de carte :

Vos tâches d'évaluation terminées

Soumettez votre travail d'évaluation via le SDK SageMaker Python

Étape 1 : Créez votre BenchMarkEvaluator

Transmettez votre modèle entraîné enregistré, l'emplacement de sortie AWS S3 et l'ARN MLFlow des ressources à, BenchMarkEvaluator puis initialisez-les.

from sagemaker.train.evaluate import BenchMarkEvaluator, Benchmark evaluator = BenchMarkEvaluator( benchmark=Benchmark.MMLU, model="arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>/<version>", s3_output_path="s3://<bucket-name>/<prefix>/eval/", mlflow_resource_arn="arn:aws:sagemaker:<region>:<account-id>:mlflow-tracking-server/<tracking-server-name>", evaluate_base_model=False )

Étape 2 : Soumettez votre job d'évaluation

Appelez la evaluate() méthode pour soumettre le travail d'évaluation.

execution = evaluator.evaluate()

Étape 3 : Suivez la progression de votre job d'évaluation

Appelez la wait() méthode d'exécution pour obtenir une mise à jour en temps réel de l'avancement de la tâche d'évaluation.

execution.wait(target_status="Succeeded", poll=5, timeout=3600)

Étape 4 : Afficher les résultats de votre job d'évaluation

Appelez la show_results() méthode pour afficher les résultats de votre tâche d'évaluation.

execution.show_results()