API titik akhir inferensi Neptunus - Amazon Neptune

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

API titik akhir inferensi Neptunus

Tindakan titik akhir inferensi:

CreateMelendPoint (tindakan)

        Nama AWS CLI untuk API ini adalah:. create-ml-endpoint

Membuat titik akhir inferensi Neptunus ML baru yang memungkinkan Anda menanyakan satu model spesifik yang dibuat oleh proses pelatihan model. Lihat Mengelola titik akhir inferensi menggunakan perintah endpoints.

Saat menjalankan operasi ini di kluster Neptunus yang mengaktifkan autentikasi IAM, pengguna IAM atau peran yang membuat permintaan harus memiliki kebijakan yang dilampirkan yang memungkinkan tindakan IAM Neptune-DB:CreateFlendPoint di cluster tersebut.

Permintaan

  • id(dalam CLI:--id) — String, tipe: string (string yang dikodekan UTF-8).

    Pengidentifikasi unik untuk titik akhir inferensi baru. Defaultnya adalah nama stempel waktu yang dibuat secara otomatis.

  • instanceCount(dalam CLI:--instance-count) — Integer, tipe: integer (integer 32-bit yang ditandatangani).

    Jumlah minimum instans Amazon EC2 untuk diterapkan ke titik akhir untuk prediksi. Defaultnya adalah 1

  • instanceType(dalam CLI:--instance-type) — String, tipe: string (string yang dikodekan UTF-8).

    Jenis instance Neptunus ML yang digunakan untuk servis online. Defaultnya adalah ml.m5.xlarge. Memilih instans ML untuk titik akhir inferensi bergantung pada jenis tugas, ukuran grafik, dan anggaran Anda.

  • mlModelTrainingJobId(dalam CLI:--ml-model-training-job-id) — String, tipe: string (string yang dikodekan UTF-8).

    Id pekerjaan dari pekerjaan pelatihan model yang telah diselesaikan yang telah menciptakan model yang akan ditunjukkan oleh titik akhir inferensi. Anda harus menyediakan salah satu mlModelTrainingJobId ataumlModelTransformJobId.

  • mlModelTransformJobId(dalam CLI:--ml-model-transform-job-id) — String, tipe: string (string yang dikodekan UTF-8).

    Id pekerjaan dari pekerjaan transformasi model yang telah selesai. Anda harus menyediakan salah satu mlModelTrainingJobId ataumlModelTransformJobId.

  • modelName(dalam CLI:--model-name) — String, tipe: string (string yang dikodekan UTF-8).

    Jenis model untuk pelatihan. Secara default model Neptunus Neptunus secara otomatis didasarkan pada modelType yang digunakan dalam pemrosesan data, tetapi Anda dapat menentukan jenis model yang berbeda di sini. Defaultnya adalah rgcn untuk grafik heterogen dan kge untuk grafik pengetahuan. Satu-satunya nilai yang valid untuk grafik heterogen adalah. rgcn Nilai yang valid untuk grafik pengetahuan adalah:kge,, transedistmult, danrotate.

  • neptuneIamRoleArn(dalam CLI:--neptune-iam-role-arn) — String, tipe: string (string yang dikodekan UTF-8).

    ARN dari peran IAM yang menyediakan akses Neptunus ke dan sumber daya Amazon S3. SageMaker Ini harus terdaftar di grup parameter cluster DB Anda atau kesalahan akan dilemparkan.

  • update(dalam CLI:--update) — Boolean, dari tipe: boolean (nilai Boolean (benar atau salah)).

    Jika disetel ketrue, update menunjukkan bahwa ini adalah permintaan pembaruan. Defaultnya adalah false. Anda harus menyediakan salah satu mlModelTrainingJobId ataumlModelTransformJobId.

  • volumeEncryptionKMSKey(dalam CLI:--volume-encryption-kms-key) — String, tipe: string (string yang dikodekan UTF-8).

    Kunci Amazon Key Management Service (Amazon KMS) yang SageMaker digunakan untuk mengenkripsi data pada volume penyimpanan yang dilampirkan ke instans komputasi ML yang menjalankan tugas pelatihan. Default-nya adalah Tidak Ada.

Respon

  • arn— String, tipe: string (string yang dikodekan UTF-8).

    ARN untuk titik akhir inferensi baru.

  • creationTimeInMillis— Panjang, tipe: long (integer 64-bit yang ditandatangani).

    Waktu pembuatan titik akhir, dalam milidetik.

  • id— String, tipe: string (string yang dikodekan UTF-8).

    ID unik dari titik akhir inferensi baru.

ListmLendPoints (tindakan)

        Nama AWS CLI untuk API ini adalah:. list-ml-endpoints

Daftar titik akhir inferensi yang ada. Lihat Mengelola titik akhir inferensi menggunakan perintah endpoints.

Saat menjalankan operasi ini di cluster Neptunus yang mengaktifkan autentikasi IAM, pengguna IAM atau peran yang membuat permintaan harus memiliki kebijakan yang dilampirkan yang memungkinkan tindakan IAM Neptune-DB:ListmLendPoints di cluster tersebut.

Permintaan

  • maxItems(dalam CLI:--max-items) — ListmLEndpointsInputMaxItemsInteger, bertipe: integer (bilangan bulat 32-bit yang ditandatangani), tidak kurang dari 1 atau lebih dari 1024? st? s.

    Jumlah maksimum item yang akan dikembalikan (dari 1 hingga 1024; defaultnya adalah 10.

  • neptuneIamRoleArn(dalam CLI:--neptune-iam-role-arn) — String, tipe: string (string yang dikodekan UTF-8).

    ARN dari peran IAM yang menyediakan akses Neptunus ke dan sumber daya Amazon S3. SageMaker Ini harus tercantum dalam grup parameter cluster DB Anda atau kesalahan akan terjadi.

Respon

  • ids— String, tipe: string (string yang dikodekan UTF-8).

    Halaman dari daftar ID titik akhir inferensi.

GetMLEndPoint (tindakan)

        Nama AWS CLI untuk API ini adalah:. get-ml-endpoint

Mengambil detail tentang titik akhir inferensi. Lihat Mengelola titik akhir inferensi menggunakan perintah endpoints.

Saat menjalankan operasi ini di cluster Neptunus yang mengaktifkan autentikasi IAM, pengguna IAM atau peran yang membuat permintaan harus memiliki kebijakan yang dilampirkan yang memungkinkan tindakan IAM Neptune-DB:GetML di cluster itu. EndpointStatus

Permintaan

  • id(dalam CLI:--id) - Diperlukan: String, tipe: string (string yang dikodekan UTF-8).

    Pengidentifikasi unik dari titik akhir inferensi.

  • neptuneIamRoleArn(dalam CLI:--neptune-iam-role-arn) — String, tipe: string (string yang dikodekan UTF-8).

    ARN dari peran IAM yang menyediakan akses Neptunus ke dan sumber daya Amazon S3. SageMaker Ini harus tercantum dalam grup parameter cluster DB Anda atau kesalahan akan terjadi.

Respon

  • endpoint — Sebuah objek MlResourceDefinition.

    Definisi titik akhir.

  • endpointConfig — Sebuah objek MlConfigDefinition.

    Konfigurasi titik akhir

  • id— String, tipe: string (string yang dikodekan UTF-8).

    Pengidentifikasi unik dari titik akhir inferensi.

  • status— String, tipe: string (string yang dikodekan UTF-8).

    Status titik akhir inferensi.

deleteMlendPoint (tindakan)

        Nama AWS CLI untuk API ini adalah:. delete-ml-endpoint

Membatalkan pembuatan titik akhir inferensi Neptunus ML. Lihat Mengelola titik akhir inferensi menggunakan perintah endpoints.

Saat menjalankan operasi ini di cluster Neptunus yang mengaktifkan autentikasi IAM, pengguna IAM atau peran yang membuat permintaan harus memiliki kebijakan yang dilampirkan yang memungkinkan tindakan IAM Neptune-DB:deleteMlendPoint di cluster tersebut.

Permintaan

  • clean(dalam CLI:--clean) — Boolean, dari tipe: boolean (nilai Boolean (benar atau salah)).

    Jika bendera ini disetel keTRUE, semua artefak Neptunus ML S3 harus dihapus saat pekerjaan dihentikan. Defaultnya adalah FALSE.

  • id(dalam CLI:--id) - Diperlukan: String, tipe: string (string yang dikodekan UTF-8).

    Pengidentifikasi unik dari titik akhir inferensi.

  • neptuneIamRoleArn(dalam CLI:--neptune-iam-role-arn) — String, tipe: string (string yang dikodekan UTF-8).

    ARN dari peran IAM yang menyediakan akses Neptunus ke dan sumber daya Amazon S3. SageMaker Ini harus terdaftar di grup parameter cluster DB Anda atau kesalahan akan dilemparkan.

Respon

  • status— String, tipe: string (string yang dikodekan UTF-8).

    Status pembatalan.