Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Pemilihan instans untuk tahap Neptune
Tahapan pemrosesan Neptune ML yang berbeda menggunakan SageMaker instance yang berbeda. Di sini, kita membahas bagaimana memilih jenis instance yang tepat untuk setiap tahap. Anda dapat menemukan informasi tentang jenis SageMaker instans dan harga instans di Amazon SageMaker Pricing
Memilih instance untuk pemrosesan data
Langkah SageMaker pemrosesan data memerlukan instans pemrosesan yang memiliki cukup memori dan penyimpanan disk untuk data input, menengahn dan output. Jumlah memori dan penyimpanan disk tertentu yang diperlukan tergantung pada karakteristik grafik Neptune ML dan fitur yang diekspor.
Secara default, Neptune MLmemilihml.r5
instance terkecil yang memorinya sepuluh kali lebih besar dari ukuran data grafik yang diekspor pada disk.
Memilih instance untuk pelatihan model dan transformasi model
Pemilihan jenis instans yang tepat untuk jenis tugas, ukuran grafik, dan persyaratan turn-around Anda. Instans GPU memberikan kinerja terbaik. Kami umumnya merekomendasikanp3
dan contohg4dn
serial. Anda juga dapat menggunakanp2
ataup4d
contoh.
Secara default, Neptune MLmemilih instans GPU terkecil dengan memori lebih banyak daripada pelatihan model dan transformasi model yang diperlukan. Anda dapat menemukan pilihan apa yang ada dalamtrain_instance_recommendation.json
file, di lokasi keluaran pemrosesan data Amazon S3. Berikut adalah contoh isitrain_instance_recommendation.json
file
{ "instance": "
(the recommended instance type for model training and transform)
", "cpu_instance": "(the recommended instance type for base processing instance)
", "disk_size": "(the estimated disk space required)
", "mem_size": "(the estimated memory required)
" }
Pemilihan instans untuk titik akhir inferensi
Pemilihan tipe instans yang tepat untuk titik akhir inferensi tergantung pada jenis tugas, ukuran grafik, dan anggaran Anda. Secara default, Neptune MLmemilihml.m5d
instance terkecil dengan lebih banyak memori yang dibutuhkan titik akhir inferensi.
catatan
Jika lebih dari 384 GB memori diperlukan, Neptune MLmenggunakan sebuahml.r5d.24xlarge
instance.
Anda dapat melihat jenis instans apa yang direkomendasikan Neptune MLdalaminfer_instance_recommendation.json
file yang terletak di lokasi Amazon S3 yang Anda gunakan untuk pelatihan model. Berikut adalah contoh isi file tersebut:
{ "instance" : "
(the recommended instance type for an inference endpoint)
", "disk_size" : "(the estimated disk space required)
", "mem_size" : "(the estimated memory required)
" }