Erste Schritte - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erste Schritte

Reichen Sie einen Bewertungsjob über SageMaker Studio ein

Schritt 1: Navigieren Sie auf Ihrer Modellkarte zur Bewertung

Nachdem Sie Ihr Modell angepasst haben, navigieren Sie von Ihrer Modellkarte aus zur Evaluierungsseite.

Informationen zum Training mit maßgeschneiderten Modellen mit offenem Gewicht finden Sie unter: https://docs.aws.amazon.com/sagemaker/latest/dg/model.html customize-open-weight-job

SageMaker visualisiert Ihr individuelles Modell auf der Registerkarte Meine Modelle:

Seite mit der Karte registrierter Modelle

Wählen Sie „Aktuelle Version anzeigen“ und anschließend „Evaluieren“ aus:

Seite zur Modellanpassung

Schritt 2: Reichen Sie Ihren Bewertungsjob ein

Wählen Sie die Schaltfläche „Senden“ und reichen Sie Ihren Bewertungsjob ein. Dadurch wird ein minimaler MMLU-Benchmark-Job eingereicht.

Informationen zu den unterstützten Typen von Bewertungsaufträgen finden Sie unter. Bewertungsarten und Stelleneinreichung

Seite zur Einreichung von Bewertungsaufträgen

Schritt 3: Verfolgen Sie den Fortschritt Ihres Bewertungsauftrags

Der Fortschritt Ihres Bewertungsauftrags wird auf der Registerkarte Bewertungsschritte nachverfolgt:

Der Fortschritt Ihres Bewertungsauftrags

Schritt 4: Sehen Sie sich die Ergebnisse Ihrer Bewertungsjobs an

Die Ergebnisse Ihrer Bewertungsaufgabe werden auf der Registerkarte Bewertungsergebnisse visualisiert:

Ihre Bewertungs-Job-Metriken

Schritt 5: Sehen Sie sich Ihre abgeschlossenen Bewertungen an

Ihr abgeschlossener Bewertungsauftrag wird unter Bewertungen Ihrer Modellkarte angezeigt:

Ihre abgeschlossenen Bewertungsaufträge

Reichen Sie Ihren Evaluierungsjob über das SageMaker Python SDK ein

Schritt 1: Erstellen Sie Ihr BenchMarkEvaluator

Übergeben Sie Ihr registriertes trainiertes Modell, den AWS S3-Ausgabeort und den MLFlow Ressourcen-ARN an BenchMarkEvaluator und initialisieren Sie es dann.

from sagemaker.train.evaluate import BenchMarkEvaluator, Benchmark evaluator = BenchMarkEvaluator( benchmark=Benchmark.MMLU, model="arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>/<version>", s3_output_path="s3://<bucket-name>/<prefix>/eval/", mlflow_resource_arn="arn:aws:sagemaker:<region>:<account-id>:mlflow-tracking-server/<tracking-server-name>", evaluate_base_model=False )

Schritt 2: Reichen Sie Ihren Bewertungsjob ein

Rufen Sie die evaluate() Methode auf, um den Bewertungsjob einzureichen.

execution = evaluator.evaluate()

Schritt 3: Verfolgen Sie den Fortschritt Ihres Bewertungsauftrags

Rufen Sie die wait() Ausführungsmethode auf, um eine Live-Aktualisierung des Fortschritts der Evaluierungsaufgabe zu erhalten.

execution.wait(target_status="Succeeded", poll=5, timeout=3600)

Schritt 4: Sehen Sie sich die Ergebnisse Ihrer Bewertungsjobs an

Rufen Sie die show_results() Methode auf, um die Ergebnisse Ihrer Bewertungsaufgabe anzuzeigen.

execution.show_results()