Protokollieren von Amazon SageMaker Events mit Amazon CloudWatch - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Protokollieren von Amazon SageMaker Events mit Amazon CloudWatch

Damit Sie Ihre Kompilierungsaufträge, Verarbeitungsaufträge, Schulungsaufträge, Endpunkte, Transformationsaufträge, Notebook-Instances und Lebenszykluskonfigurationen für Notebook-Instances debuggen können, sendet alles, was ein Algorithmus-Container, ein Modell-Container oder eine Lebenszykluskonfiguration für Notebook-Instances an Amazon Logs stdout sendet oder stderr wird ebenfalls an Amazon CloudWatch Logs gesendet. Zusätzlich zum Debugging können Sie diese Angaben für die Fortschrittsanalyse heranziehen.

Protokolle

In der folgenden Tabelle sind alle von Amazon bereitgestellten Protokolle aufgeführt SageMaker.

Protokolle

Protokollgruppenname Protokollstreamname
/aws/sagemaker/CompilationJobs

[compilation-job-name]

/aws/sagemaker/Endpoints/[EndpointName]

[production-variant-name]/[instance-id]

(Für asynchrone Inferenzendpunkte) [production-variant-name]/[instance-id]/data-log

(Für Inferenz-Pipelines) [production-variant-name]/[instance-id]/[container-name provided in SageMaker model]

/aws/sagemaker/groundtruth/WorkerActivity

aws/sagemaker/groundtruth/worker-activity/[requester-AWS-Id]-[region]/[timestamp]

/aws/sagemaker/InferenceRecommendationsJobs

[inference-recommendations-job-name]/execution

[inference-recommendations-job-name]/CompilationJob/[compilation-job-name]

[inference-recommendations-job-name]/Endpoint/[endpoint-name]

/aws/sagemaker/LabelingJobs

[labeling-job-name]

/aws/sagemaker/NotebookInstances

[notebook-instance-name]/[LifecycleConfigHook]

[notebook-instance-name]/jupyter.log

/aws/sagemaker/ProcessingJobs

[processing-job-name]/[hostname]-[epoch_timestamp]

/aws/sagemaker/studio

[domain-id]/[user-profile-name]/[app-type]/[app-name]

[domain-id]/domain-shared/rstudioserverpro/default

/aws/sagemaker/TrainingJobs

[training-job-name]/algo-[instance-number-in-cluster]-[epoch_timestamp]

/aws/sagemaker/TransformJobs

[transform-job-name]/[instance-id]-[epoch_timestamp]

[transform-job-name]/[instance-id]-[epoch_timestamp]/data-log

[transform-job-name]/[instance-id]-[epoch_timestamp]/[container-name provided in SageMaker model] (For Inference Pipelines)

Anmerkung

1. Der Protokoll-Stream /aws/sagemaker/NotebookInstances/[LifecycleConfigHook] wird erstellt, wenn Sie eine Notebook-Instance mit einer Lebenszykluskonfiguration erstellen. Weitere Informationen finden Sie unter Anpassen einer Notebook-Instances mithilfe eines Lifecycle-Konfigurationsskripts.

2. Wenn Sie bei Inferenz-Pipelines keine Container-Namen angeben, verwendet die Plattform **container-1, container-2** usw., entsprechend der im SageMaker-Modell angegebenen Reihenfolge.

Weitere Informationen zum Protokollieren von Ereignissen mit - CloudWatch Protokollierung finden Sie unter Was ist Amazon CloudWatch Logs? im Amazon- CloudWatch Benutzerhandbuch.