Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
API di trasformazione del modello Neptune ML
Azioni di trasformazione del modello:
Strutture di trasformazione del modello:
StartMLModelTransformJob (azione)
Il nome AWS CLI per questa API è: start-ml-model-transform-job
.
Crea un nuovo processo di trasformazione del modello. Vedi Utilizzo di un modello addestrato per generare nuovi artefatti del modello.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:StartMLModelTransformJob nel cluster.
Richiesta
-
baseProcessingInstanceType (nella CLI:
--base-processing-instance-type
): una stringa di tipostring
(una stringa con codifica UTF-8).Il tipo di istanza ML utilizzata nella preparazione e gestione dell'addestramento del modello ML. Si tratta di un'istanza di calcolo ML scelta in base ai requisiti di memoria per l'elaborazione dei dati e del modello di addestramento.
-
baseProcessingInstanceVolumeSizeInGB (nella CLI:
--base-processing-instance-volume-size-in-gb
): un valore Integer di tipointeger
(numero intero a 32 bit con segno).La dimensione del volume del disco dell'istanza di addestramento in gigabyte. Il valore predefinito è 0. Sia i dati di input che il modello di output vengono archiviati su disco, quindi le dimensioni del volume devono essere sufficientemente grandi da contenere entrambi i set di dati. Se non è specificato o è pari a 0, Neptune ML seleziona la dimensione del volume del disco in base al suggerimento generato nella fase di elaborazione dati.
-
customModelTransformParameters (nella CLI:
--custom-model-transform-parameters
): un oggetto CustomModelTransformParameters.Informazioni di configurazione per una trasformazione del modello mediante un modello personalizzato. L'oggetto
customModelTransformParameters
contiene i seguenti campi, che devono avere valori compatibili con i parametri del modello salvati durante il processo di addestramento: -
dataProcessingJobId (nella CLI:
--data-processing-job-id
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ID di un processo di elaborazione dati completato. Devi includere
dataProcessingJobId
e unmlModelTrainingJobId
o untrainingJobName
. -
id (nella CLI:
--id
): una stringa di tipostring
(una stringa con codifica UTF-8).Un identificatore univoco per il nuovo job. L'impostazione predefinita è un UUID generato automaticamente.
-
mlModelTrainingJobId (nella CLI:
--ml-model-training-job-id
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ID di un processo di addestramento del modello completato. Devi includere
dataProcessingJobId
e unmlModelTrainingJobId
o untrainingJobName
. -
modelTransformOutputS3Location (nella CLI:
--model-transform-output-s3-location
): Obbligatorio: una stringa di tipostring
(una stringa con codifica UTF-8).La posizione di Amazon S3 in cui devono essere archiviati gli artefatti del modello.
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
-
s3OutputEncryptionKMSKey (nella CLI:
--s-3-output-encryption-kms-key
): una stringa di tipostring
(una stringa con codifica UTF-8).La chiave Amazon Key Management Service (KMS) utilizzata da SageMaker per crittografare l'output del job di elaborazione. Il valore predefinito è none.
-
sagemakerIamRoleArn (nella CLI:
--sagemaker-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM per l'esecuzione di SageMaker. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
-
securityGroupIds (nella CLI:
--security-group-ids
): una stringa di tipostring
(una stringa con codifica UTF-8).Gli ID del gruppo di sicurezza VPC. Il valore predefinito è None (Nessuno).
-
subnets (nella CLI:
--subnets
): una stringa di tipostring
(una stringa con codifica UTF-8).Gli ID delle sottoreti nel VPC Neptune. Il valore predefinito è None (Nessuno).
-
trainingJobName (nella CLI:
--training-job-name
): una stringa di tipostring
(una stringa con codifica UTF-8).Il nome di un processo di addestramento SageMaker completato. Devi includere
dataProcessingJobId
e unmlModelTrainingJobId
o untrainingJobName
. -
volumeEncryptionKMSKey (nella CLI:
--volume-encryption-kms-key
): una stringa di tipostring
(una stringa con codifica UTF-8).La chiave Amazon Key Management Service (KMS) utilizzata da SageMaker per crittografare i dati nel volume di storage collegato alle istanze di calcolo ML che eseguono il job di addestramento. Il valore predefinito è None (Nessuno).
Risposta
-
arn: una stringa di tipo
string
(una stringa con codifica UTF-8).L'ARN del processo di trasformazione del modello.
-
creationTimeInMillis: un valore Long di tipo
long
(numero intero a 64 bit con segno).Il tempo di creazione del processo di trasformazione del modello, in millisecondi.
-
id: una stringa di tipo
string
(una stringa con codifica UTF-8).L'ID univoco del nuovo processo di trasformazione del modello.
Errori
ListMLModelTransformJobs (azione)
Il nome AWS CLI per questa API è: list-ml-model-transform-jobs
.
Restituisce un elenco di ID di processi di trasformazione del modello. Vedi Utilizzo di un modello addestrato per generare nuovi artefatti del modello.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:ListMLModelTransformJobs nel cluster.
Richiesta
-
maxItems (nella CLI:
--max-items
): un valore ListMLModelTransformJobsInputMaxItemsInteger di tipointeger
(numero intero a 32 bit con segno), non meno di 1 o più di 1.024 ?st?s.Il numero massimo di elementi da restituire (da 1 a 1024; l'impostazione predefinita è 10).
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
Risposta
-
ids: una stringa di tipo
string
(una stringa con codifica UTF-8).Una pagina dell'elenco degli ID di trasformazione del modello.
Errori
GetMLModelTransformJob (azione)
Il nome AWS CLI per questa API è: get-ml-model-transform-job
.
Ottiene informazioni su un processo di trasformazione del modello specificato. Vedi Utilizzo di un modello addestrato per generare nuovi artefatti del modello.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:GetMLModelTransformJobStatus in quel cluster.
Richiesta
-
id (nella CLI:
--id
): Obbligatorio: una stringa di tipostring
(una stringa con codifica UTF-8).L'identificatore univoco del processo di trasformazione del modello da recuperare.
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
Risposta
-
baseProcessingJob: un oggetto MlResourceDefinition.
Il processo di elaborazione dati di base.
-
id: una stringa di tipo
string
(una stringa con codifica UTF-8).L'identificatore univoco del processo di trasformazione del modello da recuperare.
-
models: una matrice di oggetti MlConfigDefinition.
Un elenco delle informazioni di configurazione per i modelli utilizzati.
-
remoteModelTransformJob: un oggetto MlResourceDefinition.
Il processo di trasformazione del modello remoto.
-
status: una stringa di tipo
string
(una stringa con codifica UTF-8).Lo stato del processo di trasformazione del modello.
Errori
CancelMLModelTransformJob (azione)
Il nome AWS CLI per questa API è: cancel-ml-model-transform-job
.
Annulla un processo di trasformazione del modello specificato. Vedi Utilizzo di un modello addestrato per generare nuovi artefatti del modello.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:CancelMLModelTransformJob nel cluster.
Richiesta
-
clean (nella CLI:
--clean
): un valore booleano di tipoboolean
[un valore booleano (vero o falso)].Se questo flag è impostato su
TRUE
, tutti gli artefatti Neptune ML S3 devono essere eliminati quando il job viene interrotto. Il valore predefinito èFALSE
. -
id (nella CLI:
--id
): Obbligatorio: una stringa di tipostring
(una stringa con codifica UTF-8).L'ID univoco del processo di trasformazione del modello da annullare.
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
Risposta
-
status: una stringa di tipo
string
(una stringa con codifica UTF-8).Lo stato dell'annullamento.
Errori
Strutture di trasformazione del modello:
CustomModelTransformParameters (struttura)
Contiene parametri personalizzati per la trasformazione del modello. Vedi Utilizzo di un modello addestrato per generare nuovi artefatti del modello.
Campi
-
sourceS3DirectoryPath: Obbligatorio: una stringa di tipo
string
(una stringa con codifica UTF-8).Il percorso della posizione Amazon S3 in cui si trova il modulo Python che implementa il modello. Deve indicare una posizione Amazon S3 esistente valida che contenga almeno uno script di addestramento, uno script di trasformazione e un file
model-hpo-configuration.json
. -
transformEntryPointScript: questa è una stringa di tipo
string
(una stringa con codifica UTF-8).Il nome del punto di ingresso nel modulo di uno script che deve essere eseguito dopo aver identificato il modello migliore ottenuto dalla ricerca degli iperparametri, in modo da calcolare gli artefatti del modello necessari per l'implementazione del modello. Deve poter essere eseguito senza argomenti della riga di comando. Il valore predefinito è
transform.py
.