기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
TensorFlow 프레임워크 프로세서
TensorFlow 는 오픈 소스 기계 학습 및 인공 지능 라이브러리입니다. Amazon SageMaker PythonTensorFlowProcessor
의 는 TensorFlow 스크립트로 처리 작업을 실행할 수 있는 기능을 SDK 제공합니다. 를 사용하면 관리형 TensorFlow 환경이 있는 Amazon 빌드 Docker 컨테이너를 TensorFlowProcessor
활용하여 자체 컨테이너를 가져올 필요가 없습니다.
다음 코드 예제는 TensorFlowProcessor
에서 제공 및 유지 관리하는 Docker 이미지를 사용하여 처리 작업을 실행하는 방법을 보여줍니다 SageMaker. 작업을 실행할 때 source_dir
인수에 스크립트와 종속 항목이 포함된 디렉터리를 지정할 수 있으며, 디렉터리 내에 처리 스크립트(들)의 종속성을 source_dir
지정하는 requirements.txt
파일이 있을 수 있습니다. SageMaker 처리는 의 종속성을 컨테이너requirements.txt
에 설치합니다.
from sagemaker.tensorflow import TensorFlowProcessor from sagemaker.processing import ProcessingInput, ProcessingOutput from sagemaker import get_execution_role #Initialize the TensorFlowProcessor tp = TensorFlowProcessor( framework_version='2.3', role=get_execution_role(), instance_type='ml.m5.xlarge', instance_count=1, base_job_name='frameworkprocessor-TF', py_version='py37' ) #Run the processing job tp.run( code='
processing-script.py
', source_dir='scripts
', inputs=[ ProcessingInput( input_name='data', source=f's3://{BUCKET}/{S3_INPUT_PATH}
', destination='/opt/ml/processing/input/data' ), ProcessingInput( input_name='model', source=f's3://{BUCKET}/{S3_PATH_TO_MODEL}
', destination='/opt/ml/processing/input/model' ) ], outputs=[ ProcessingOutput( output_name='predictions', source='/opt/ml/processing/output', destination=f's3://{BUCKET}/{S3_OUTPUT_PATH}
' ) ] )
requirements.txt
파일이 있는 경우, 컨테이너에 설치하려는 라이브러리 목록이어야 합니다. 의 경로는 상대, 절대 또는 Amazon S3 URI 경로일 source_dir
수 있습니다. 그러나 Amazon S3 를 사용하는 경우 tar.gz 파일을 가리URI켜야 합니다. source_dir
에 대해 지정한 디렉터리에 스크립트가 여러 개 있을 수 있습니다. TensorFlowProcessor
클래스에 대한 자세한 내용은 Amazon SageMaker PythonSDK의 TensorFlow 추정기를