Gestion des terminaux d'inférence à l'aide de laendpointscommande - Amazon Neptune

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Gestion des terminaux d'inférence à l'aide de laendpointscommande

Vous utilisez le Neptune MLendpointspour créer un point de terminaison d'inférence, vérifier son état, le supprimer ou répertorier les points de terminaison d'inférence existants.

Création d'un point de terminaison d'inférence à l'aide de Neptune MLendpointscommande

Une chaîne Neptune MLendpointspour créer un point de terminaison d'inférence à partir d'un modèle créé par une tâche de formation ressemble à ceci :

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'

Une chaîne Neptune MLendpointspour mettre à jour un point de terminaison d'inférence existant à partir d'un modèle créé par une tâche de formation ressemble à ceci :

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'

Une chaîne Neptune MLendpointspour créer un point de terminaison d'inférence à partir d'un modèle créé par une tâche de transformation de modèle ressemble à ceci :

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'

Une chaîne Neptune MLendpointspour mettre à jour un point de terminaison d'inférence existant à partir d'un modèle créé par une tâche de transformation de modèle ressemble à ceci :

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'

Paramètres pourendpointscréation de points de terminaison d'inférence

  • id— (Facultatif) Identifiant unique du nouveau point de terminaison d'inférence.

    Type: string Par défaut : Un nom horodaté généré automatiquement.

  • mlModelTrainingJobId— ID de tâche de la tâche de formation au modèle terminée qui a créé le modèle vers lequel le point de terminaison d'inférence pointera.

    Type: string

    Remarque : Vous devez fournir soit lemlModelTrainingJobIdou lemlModelTransformJobId.

  • mlModelTransformJobId— ID de tâche de la tâche de transformation de modèle terminée.

    Type: string

    Remarque : Vous devez fournir soit lemlModelTrainingJobIdou lemlModelTransformJobId.

  • update— (Facultatif) S'il est présent, ce paramètre indique qu'il s'agit d'une demande de mise à jour.

    Type : Booléen. Par défaut : false

    Remarque : Vous devez fournir soit lemlModelTrainingJobIdou lemlModelTransformJobId.

  • neptuneIamRoleArn— (Facultatif) ARN d'un rôle IAM qui autorise Neptune à accéder aux ressources SageMaker et Amazon S3.

    Type: string Remarque : Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données, sinon une erreur sera générée.

  • modelName— (Facultatif) Type de modèle pour la formation. Par défaut, le modèle ML est automatiquement basé sur lemodelTypeutilisé dans le traitement des données, mais vous pouvez spécifier un autre type de modèle ici.

    Type: string Par défaut :rgcnpour les graphiques hétérogènes etkgepour les graphiques de connaissances. Valeurs valides: Pour les graphiques hétérogènes : rgcn. Pour les graphiques de connaissances :kge,transe,distmult, ourotate.

  • instanceType— (Facultatif) Type d'instance ML utilisée pour la maintenance en ligne.

    Type: string Par défaut :ml.m5.xlarge.

    Remarque : Le choix de l'instance ML pour un point de terminaison d'inférence dépend du type de tâche, de la taille du graphique et de votre budget. Consulter Sélection d'une instance pour un point de terminaison d'inférence.

  • instanceCount— (Facultatif) Nombre minimum d'instances Amazon EC2 à déployer sur un point de terminaison pour prédiction.

    Type: entier. Par défaut :1.

  • volumeEncryptionKMSKey— (Facultatif) LeAWS Key Management Service(AWS KMS) que SageMaker utilise pour chiffrer des données sur le volume de stockage attaché à la ou aux instances de calcul ML qui exécutent les points de terminaison.

    Type: string Par défaut :aucune.

Obtention du statut d'un point de terminaison d'inférence à l'aide de Neptune MLendpointscommande

Un échantillon Neptune MLendpointspour l'état d'un point de terminaison d'instance ressemble à ceci :

curl -s \ "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)" \ | python -m json.tool

Paramètres pourendpointsStatut du point de terminaison

  • id— (Obligatoire) Identifiant unique du point de terminaison d'inférence.

    Type: string

  • neptuneIamRoleArn— (Facultatif) ARN d'un rôle IAM qui autorise Neptune à accéder aux ressources SageMaker et Amazon S3.

    Type: string Remarque : Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données, sinon une erreur sera générée.

Suppression d'un point de terminaison d'instance à l'aide de Neptune MLendpointscommande

Un échantillon Neptune MLendpointspour supprimer un point de terminaison d'instance ressemble à ceci :

curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)"

Ou ceci :

curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)?clean=true"

Paramètres pourendpointssuppression d'un point de terminaison d'inférence

  • id— (Obligatoire) Identifiant unique du point de terminaison d'inférence.

    Type: string

  • neptuneIamRoleArn— (Facultatif) ARN d'un rôle IAM qui autorise Neptune à accéder aux ressources SageMaker et Amazon S3.

    Type: string Remarque : Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données, sinon une erreur sera générée.

  • clean— (Facultatif) Indique que tous les artefacts liés à ce point de terminaison doivent également être supprimés.

    Type : Booléen. Par défaut :FALSE.

Liste des points de terminaison d'inférence à l'aide de Neptune MLendpointscommande

Une chaîne Neptune MLendpointsLa commande pour répertorier les points de terminaison d'inférence ressemble à ceci :

curl -s "https://(your Neptune endpoint)/ml/endpoints" \ | python -m json.tool

Ou ceci :

curl -s "https://(your Neptune endpoint)/ml/endpoints?maxItems=3" \ | python -m json.tool

Paramètres pourdataprocessingRépertorie les points de terminaison

  • maxItems— (Facultatif) Nombre maximum d'éléments autorisés.

    Type: entier. Par défaut : 10.Valeur maximale autorisée :1024.

  • neptuneIamRoleArn— (Facultatif) ARN d'un rôle IAM qui autorise Neptune à accéder aux ressources SageMaker et Amazon S3.

    Type: string Remarque : Cela doit être répertorié dans le groupe de paramètres de votre cluster de bases de données, sinon une erreur sera générée.