Pemilihan instans untuk tahap Neptune - Amazon Neptune

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Pemilihan instans untuk tahap Neptune

Tahapan pemrosesan Neptune ML yang berbeda menggunakan SageMaker instance yang berbeda. Di sini, kita membahas bagaimana memilih jenis instance yang tepat untuk setiap tahap. Anda dapat menemukan informasi tentang jenis SageMaker instans dan harga instans di Amazon SageMaker Pricing.

Memilih instance untuk pemrosesan data

Langkah SageMaker pemrosesan data memerlukan instans pemrosesan yang memiliki cukup memori dan penyimpanan disk untuk data input, menengahn dan output. Jumlah memori dan penyimpanan disk tertentu yang diperlukan tergantung pada karakteristik grafik Neptune ML dan fitur yang diekspor.

Secara default, Neptune MLmemilihml.r5 instance terkecil yang memorinya sepuluh kali lebih besar dari ukuran data grafik yang diekspor pada disk.

Memilih instance untuk pelatihan model dan transformasi model

Pemilihan jenis instans yang tepat untuk jenis tugas, ukuran grafik, dan persyaratan turn-around Anda. Instans GPU memberikan kinerja terbaik. Kami umumnya merekomendasikanp3 dan contohg4dn serial. Anda juga dapat menggunakanp2 ataup4d contoh.

Secara default, Neptune MLmemilih instans GPU terkecil dengan memori lebih banyak daripada pelatihan model dan transformasi model yang diperlukan. Anda dapat menemukan pilihan apa yang ada dalamtrain_instance_recommendation.json file, di lokasi keluaran pemrosesan data Amazon S3. Berikut adalah contoh isitrain_instance_recommendation.json file

{ "instance": "(the recommended instance type for model training and transform)", "cpu_instance": "(the recommended instance type for base processing instance)", "disk_size": "(the estimated disk space required)", "mem_size": "(the estimated memory required)" }

Pemilihan instans untuk titik akhir inferensi

Pemilihan tipe instans yang tepat untuk titik akhir inferensi tergantung pada jenis tugas, ukuran grafik, dan anggaran Anda. Secara default, Neptune MLmemilihml.m5d instance terkecil dengan lebih banyak memori yang dibutuhkan titik akhir inferensi.

catatan

Jika lebih dari 384 GB memori diperlukan, Neptune MLmenggunakan sebuahml.r5d.24xlarge instance.

Anda dapat melihat jenis instans apa yang direkomendasikan Neptune MLdalaminfer_instance_recommendation.json file yang terletak di lokasi Amazon S3 yang Anda gunakan untuk pelatihan model. Berikut adalah contoh isi file tersebut:

{ "instance" : "(the recommended instance type for an inference endpoint)", "disk_size" : "(the estimated disk space required)", "mem_size" : "(the estimated memory required)" }