Gestione degli endpoint di inferenza mediante il comando endpoints - Amazon Neptune

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Gestione degli endpoint di inferenza mediante il comando endpoints

Si utilizza il comando endpoints in Neptune ML per creare un endpoint di inferenza, controllarne lo stato, eliminarlo o elencare gli endpoint di inferenza esistenti.

Creazione di un endpoint di inferenza con il comando endpoints in Neptune ML

Un comando endpoints in Neptune ML per la creazione di un endpoint di inferenza da un modello creato da un processo di addestramento ha il seguente aspetto:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'

Un comando endpoints in Neptune ML per l'aggiornamento di un endpoint di inferenza esistente da un modello creato da un processo di addestramento ha il seguente aspetto:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'

Un comando endpoints in Neptune ML per la creazione di un endpoint di inferenza da un modello creato da un processo di trasformazione dei modelli ha il seguente aspetto:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'

Un comando endpoints in Neptune ML per l'aggiornamento di un endpoint di inferenza esistente da un modello creato da un processo di trasformazione dei modelli ha il seguente aspetto:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'
Parametri per il comando endpoints per la creazione di endpoint di inferenza
  • id (facoltativo): identificatore univoco per il nuovo endpoint di inferenza.

    Tipo: stringa. Impostazione predefinita: nome con timestamp generato automaticamente.

  • mlModelTrainingJobId: ID del processo di addestramento dei modelli completato che ha creato il modello a cui punterà l'endpoint di inferenza.

    Tipo: stringa.

    Nota: è necessario specificare mlModelTrainingJobId o mlModelTransformJobId.

  • mlModelTransformJobId: ID del processo di trasformazione dei modelli completato.

    Tipo: stringa.

    Nota: è necessario specificare mlModelTrainingJobId o mlModelTransformJobId.

  • update (facoltativo): se presente, questo parametro indica che si tratta di una richiesta di aggiornamento.

    Tipo: Boolean Valore predefinito: false

    Nota: è necessario specificare mlModelTrainingJobId o mlModelTransformJobId.

  • neptuneIamRoleArn (facoltativo): nome ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3.

    Tipo: stringa. Nota: deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.

  • modelName (facoltativo): tipo di modello per l'addestramento. Per impostazione predefinita, il modello di machine learning è basato automaticamente sul modelType utilizzato nell'elaborazione dei dati, ma qui è possibile specificare un tipo di modello diverso.

    Tipo: stringa. Impostazione predefinita: rgcn per i grafi eterogenei e kge per i grafi della conoscenza. Valori validi: per i grafi eterogenei: rgcn. Per i grafi della conoscenza: kge, transe, distmult o rotate.

  • instanceType (facoltativo): tipo di istanza ML utilizzata per l'elaborazione online.

    Tipo: stringa. Default: ml.m5.xlarge

    Nota: la scelta dell'istanza ML per un endpoint di inferenza dipende dal tipo di attività, dalle dimensioni del grafo e dal budget. Per informazioni, consultare Selezione di un'istanza per un endpoint di inferenza.

  • instanceCount (facoltativo): numero minimo di istanze Amazon EC2 da implementare su un endpoint ai fini della previsione.

    Tipo: numero intero. Default: 1

  • volumeEncryptionKMSKey (facoltativo): chiave AWS Key Management Service (AWS KMS) usata da SageMaker per crittografare i dati nel volume di archiviazione collegato alle istanze di calcolo ML che eseguono gli endpoint.

    Tipo: stringa. Impostazione predefinita: none.

Recupero dello stato di un endpoint di inferenza con il comando endpoints in Neptune ML

Un comando endpoints di esempio in Neptune ML per lo stato di un endpoint dell'istanza ha il seguente aspetto:

curl -s \ "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)" \ | python -m json.tool
Parametri per il comando endpoints per lo stato dell'endpoint dell'istanza
  • id (obbligatorio): identificatore univoco dell'endpoint di inferenza.

    Tipo: stringa.

  • neptuneIamRoleArn (facoltativo): nome ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3.

    Tipo: stringa. Nota: deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.

Eliminazione di un endpoint dell'istanza con il comando endpoints in Neptune ML

Un comando endpoints di esempio in Neptune ML per l'eliminazione di un endpoint dell'istanza ha il seguente aspetto:

curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)"

Oppure questo:

curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)?clean=true"
Parametri per il comando endpoints per l'eliminazione di un endpoint di inferenza
  • id (obbligatorio): identificatore univoco dell'endpoint di inferenza.

    Tipo: stringa.

  • neptuneIamRoleArn (facoltativo): nome ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3.

    Tipo: stringa. Nota: deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.

  • clean (facoltativo): indica che devono essere eliminati anche tutti gli artefatti relativi a questo endpoint.

    Tipo: Boolean Default: FALSE

Elenco degli endpoint di inferenza con il comando endpoints in Neptune ML

Un comando endpoints in Neptune ML per l'elenco degli endpoint di inferenza ha il seguente aspetto:

curl -s "https://(your Neptune endpoint)/ml/endpoints" \ | python -m json.tool

Oppure questo:

curl -s "https://(your Neptune endpoint)/ml/endpoints?maxItems=3" \ | python -m json.tool
Parametri per il comando dataprocessing per l'elenco degli endpoint di inferenza
  • maxItems (facoltativo): numero massimo di elementi da restituire.

    Tipo: numero intero. Default: 10 Valore massimo consentito: 1024.

  • neptuneIamRoleArn (facoltativo): nome ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3.

    Tipo: stringa. Nota: deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.