Introducción - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Introducción

Presente un trabajo de evaluación a través de SageMaker Studio

Paso 1: Navegue hasta la evaluación desde su tarjeta modelo

Después de personalizar el modelo, vaya a la página de evaluación desde su tarjeta de modelo.

Para obtener información sobre el entrenamiento con modelos personalizados con pesas abiertas: https://docs.aws.amazon.com/sagemaker/latest/dg/model- .html customize-open-weight-job

SageMaker visualiza su modelo personalizado en la pestaña Mis modelos:

Página de tarjeta de modelo registrado

Seleccione Ver la última versión y, a continuación, elija Evaluar:

Página de personalización del modelo

Paso 2: Envíe su trabajo de evaluación

Pulse el botón Enviar y envíe su trabajo de evaluación. Esto presenta un trabajo mínimo de referencia de MMLU.

Para obtener información sobre los tipos de trabajos de evaluación admitidos, consulte. Tipos de evaluación y presentación de trabajos

Página de envío de trabajos de evaluación

Paso 3: Realice un seguimiento del progreso de su trabajo de evaluación

El progreso de su trabajo de evaluación se registra en la pestaña Pasos de evaluación:

El progreso de su trabajo de evaluación

Paso 4: Vea los resultados de su trabajo de evaluación

Los resultados de su trabajo de evaluación se visualizan en la pestaña Resultados de la evaluación:

Las métricas de tu trabajo de evaluación

Paso 5: Vea sus evaluaciones completadas

El trabajo de evaluación completado se muestra en Evaluaciones de su tarjeta modelo:

Sus trabajos de evaluación completados

Envíe su trabajo de evaluación a través del SDK de SageMaker Python

Paso 1: Crea tu BenchMarkEvaluator

Transfiera el modelo entrenado registrado, la ubicación de salida de AWS S3 y el ARN del MLFlow recurso y, a continuación, BenchMarkEvaluator inicialícelo.

from sagemaker.train.evaluate import BenchMarkEvaluator, Benchmark evaluator = BenchMarkEvaluator( benchmark=Benchmark.MMLU, model="arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>/<version>", s3_output_path="s3://<bucket-name>/<prefix>/eval/", mlflow_resource_arn="arn:aws:sagemaker:<region>:<account-id>:mlflow-tracking-server/<tracking-server-name>", evaluate_base_model=False )

Paso 2: Envíe su trabajo de evaluación

Utilice el evaluate() método para enviar el trabajo de evaluación.

execution = evaluator.evaluate()

Paso 3: Realice un seguimiento del progreso de su trabajo de evaluación

Utilice el wait() método de ejecución para obtener una actualización en tiempo real del progreso del trabajo de evaluación.

execution.wait(target_status="Succeeded", poll=5, timeout=3600)

Paso 4: Vea los resultados de su trabajo de evaluación

Utilice el show_results() método para mostrar los resultados de su trabajo de evaluación.

execution.show_results()