Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Ausführen von Inferenzen auf einem trainierten Modell in AWS Clean Rooms ML
Mitglieder, die Abfragen ausführen können, können auch Inferenzaufgaben starten, sobald die Trainingsaufgabe abgeschlossen ist. Sie wählen den Inferenzdatensatz aus, für den sie die Inferenz ausführen möchten, und verweisen auf die trainierten Modellausgaben, mit denen sie den Inferenzcontainer ausführen möchten.
Dem Mitglied, das die Inferenzausgabe erhalten soll, muss die Fähigkeit „Mitglied“ gewährt werden. CAN_RECEIVE_INFERENCE_OUTPUT
- Console
-
Um einen Model-Inferenz-Job zu erstellen (Konsole)
-
Melden Sie sich bei https://console.aws.amazon.com/cleanrooms an AWS Management Console und öffnen Sie die AWS Clean Rooms Konsole.
-
Wählen Sie im linken Navigationsbereich Collaborations aus.
-
Wählen Sie auf der Seite Kollaborationen die Kollaboration aus, die das benutzerdefinierte Modell enthält, für das Sie einen Inferenzjob erstellen möchten.
-
Wählen Sie nach dem Öffnen der Kollaboration die Registerkarte ML-Modelle und dann Ihr Modell aus der Tabelle Benutzerdefiniertes trainiertes Modell aus.
-
Klicken Sie auf der Detailseite für das benutzerdefinierte trainierte Modell auf Inferenzjob starten.
-
Geben Sie für Inferenzjob starten für Inferenzjobdetails einen Namen und optional eine Beschreibung ein.
Geben Sie die folgenden Informationen ein:
-
Zugeordneter Modellalgorithmus — Der zugehörige Modellalgorithmus, der während des Inferenzjobs verwendet wird.
-
Details zum ML-Eingangskanal — Der ML-Eingangskanal, der die Daten für diesen Inferenzjob bereitstellt.
-
Transformationsressourcen — Die Recheninstanz, die zur Ausführung der Transformationsfunktion des Inferenzjobs verwendet wird.
-
Ausgabekonfiguration — Wer erhält die Ausgabe des Inferenzjobs und den MIME-Typ der Ausgabe.
-
Verschlüsselung — Wählen Sie die Verschlüsselungseinstellungen anpassen aus, um Ihren eigenen KMS-Schlüssel und zugehörige Informationen anzugeben. Andernfalls verwaltet Clean Rooms ML die Verschlüsselung.
-
Auftragsdetails transformieren — Die maximale Nutzlast des Inferenzjobs in MB.
-
Umgebungsvariablen — Alle Umgebungsvariablen, die für den Zugriff auf das Container-Image des Inferenzjobs erforderlich sind.
-
Wählen Sie „Inferenzjob starten“.
Die Ergebnisse werden in den folgenden Pfad am Amazon S3 S3-Speicherort exportiert, der in der ML-Konfiguration angegeben wurde:yourSpecifiedS3Path/collaborationIdentifier/trainedModelName/callerAccountId/jobName
.
- API
-
Um einen Model-Inferenz-Job (API) zu erstellen
Initiieren Sie den Inferenzjob, indem Sie den folgenden Code ausführen:
import boto3
acr_ml_client= boto3.client('cleanroomsml')
acr_ml_client.start_trained_model_inference_job(
name="inference_job",
membershipIdentifier='membership_id
',
trainedModelArn='arn:aws:cleanrooms-ml:region
:account
:membership
/membershipIdentifier/trained-model/identifier
',
dataSource={
"mlInputChannelArn": 'channel_arn_3'
},
resourceConfig={'instanceType': 'ml.m5.xlarge'},
outputConfiguration={
'accept': 'text/csv',
'members': [
{
"accountId": 'member_account_id
'
}
]
}
)
Die Ergebnisse werden in den folgenden Pfad am Amazon S3 S3-Speicherort exportiert, der in der ML-Konfiguration angegeben wurde:yourSpecifiedS3Path/collaborationIdentifier/trainedModelName/callerAccountId/jobName
.