PyTorch Prosesor Kerangka - Amazon SageMaker AI

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

PyTorch Prosesor Kerangka

PyTorch adalah kerangka pembelajaran mesin sumber terbuka. SDK SageMaker Python Amazon PyTorchProcessor di Amazon memberi Anda kemampuan untuk menjalankan pekerjaan pemrosesan dengan skrip. PyTorch Saat Anda menggunakanPyTorchProcessor, Anda dapat memanfaatkan wadah Docker buatan Amazon dengan PyTorch lingkungan terkelola sehingga Anda tidak perlu membawa wadah sendiri.

Contoh kode berikut menunjukkan bagaimana Anda dapat menggunakan PyTorchProcessor untuk menjalankan pekerjaan Processing Anda menggunakan image Docker yang disediakan dan dikelola oleh SageMaker AI. Perhatikan bahwa ketika Anda menjalankan pekerjaan, Anda dapat menentukan direktori yang berisi skrip dan dependensi Anda dalam source_dir argumen, dan Anda dapat memiliki requirements.txt file yang terletak di dalam source_dir direktori Anda yang menentukan dependensi untuk skrip pemrosesan Anda. SageMaker Pemrosesan menginstal dependensi di requirements.txt dalam wadah untuk Anda.

Untuk PyTorch versi yang didukung oleh SageMaker AI, lihat gambar Deep Learning Container yang tersedia.

from sagemaker.pytorch.processing import PyTorchProcessor from sagemaker.processing import ProcessingInput, ProcessingOutput from sagemaker import get_execution_role #Initialize the PyTorchProcessor pytorch_processor = PyTorchProcessor( framework_version='1.8', role=get_execution_role(), instance_type='ml.m5.xlarge', instance_count=1, base_job_name='frameworkprocessor-PT' ) #Run the processing job pytorch_processor.run( code='processing-script.py', source_dir='scripts', inputs=[ ProcessingInput( input_name='data', source=f's3://{BUCKET}/{S3_INPUT_PATH}', destination='/opt/ml/processing/input' ) ], outputs=[ ProcessingOutput(output_name='data_structured', source='/opt/ml/processing/tmp/data_structured', destination=f's3://{BUCKET}/{S3_OUTPUT_PATH}'), ProcessingOutput(output_name='train', source='/opt/ml/processing/output/train', destination=f's3://{BUCKET}/{S3_OUTPUT_PATH}'), ProcessingOutput(output_name='validation', source='/opt/ml/processing/output/val', destination=f's3://{BUCKET}/{S3_OUTPUT_PATH}'), ProcessingOutput(output_name='test', source='/opt/ml/processing/output/test', destination=f's3://{BUCKET}/{S3_OUTPUT_PATH}'), ProcessingOutput(output_name='logs', source='/opt/ml/processing/logs', destination=f's3://{BUCKET}/{S3_OUTPUT_PATH}') ] )

Jika Anda memiliki requirements.txt file, itu harus berupa daftar pustaka yang ingin Anda instal di wadah. Jalur untuk source_dir dapat berupa jalur URI relatif, absolut, atau Amazon S3. Namun, jika Anda menggunakan URI Amazon S3, maka itu harus mengarah ke file tar.gz. Anda dapat memiliki beberapa skrip di direktori yang Anda tentukansource_dir. Untuk mempelajari selengkapnya tentang PyTorchProcessor kelas, lihat PyTorch Estimator di Amazon SageMaker Python SDK.