Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Aktifkan penerapan
Saat menambahkan model untuk dibagikan, Anda dapat secara opsional menyediakan lingkungan inferensi di mana kolaborator di organisasi Anda dapat menerapkan model bersama untuk inferensi.
Setelah melatih model pembelajaran mesin Anda, Anda harus menerapkannya ke titik akhir Amazon SageMaker AI untuk inferensi. Ini melibatkan penyediaan lingkungan kontainer, skrip inferensi, artefak model yang dihasilkan selama pelatihan, dan memilih jenis instance komputasi yang sesuai. Mengkonfigurasi pengaturan ini dengan benar sangat penting untuk memastikan model yang Anda gunakan dapat membuat prediksi yang akurat dan menangani permintaan inferensi secara efisien. Untuk menyiapkan model Anda untuk inferensi, ikuti langkah-langkah berikut:
-
Tambahkan wadah untuk digunakan untuk inferensi. Anda dapat membawa wadah Anda sendiri di Amazon ECR atau menggunakan Amazon SageMaker AI Deep Learning Container.
-
Berikan URI Amazon S3 ke skrip inferensi. Skrip inferensi kustom berjalan di dalam wadah pilihan Anda. Skrip inferensi Anda harus menyertakan fungsi untuk pemuatan model, dan fungsi opsional menghasilkan prediksi, serta pemrosesan input dan output. Untuk informasi selengkapnya tentang membuat skrip inferensi untuk kerangka kerja pilihan Anda, lihat Kerangka kerja
dalam dokumentasi Python SageMaker SDK. Misalnya, untuk TensorFlow, lihat Cara mengimplementasikan handler pra dan/atau pasca-pemrosesan. -
Menyediakan URI Amazon S3 untuk artefak model. Artefak model adalah output yang dihasilkan dari pelatihan model, dan biasanya terdiri dari parameter terlatih, definisi model yang menjelaskan cara menghitung kesimpulan, dan metadata lainnya. Jika Anda melatih model Anda dalam SageMaker AI, artefak model disimpan sebagai file TAR terkompresi tunggal di Amazon S3. Jika Anda melatih model Anda di luar SageMaker AI, Anda perlu membuat file TAR terkompresi tunggal ini dan menyimpannya di lokasi Amazon S3.
-
Pilih jenis instance. Kami merekomendasikan instans GPU dengan lebih banyak memori untuk pelatihan dengan ukuran batch besar. Untuk daftar lengkap instans SageMaker pelatihan di seluruh AWS Wilayah, lihat tabel Harga Sesuai Permintaan di Amazon SageMaker AI
Pricing.