As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
TensorFlow Processador de estrutura
TensorFlow é uma biblioteca de aprendizado de máquina e inteligência artificial de código aberto. TensorFlowProcessor
No Amazon SageMaker Python, você SDK pode executar trabalhos de processamento com TensorFlow scripts. Ao usar oTensorFlowProcessor
, você pode aproveitar um contêiner Docker criado pela Amazon com um TensorFlow ambiente gerenciado para não precisar trazer seu próprio contêiner.
O exemplo de código a seguir mostra como você pode usar o TensorFlowProcessor
para executar sua tarefa de processamento usando uma imagem do Docker fornecida e mantida pela SageMaker. Observe que, ao executar o trabalho, você pode especificar um diretório contendo seus scripts e dependências no source_dir
argumento e pode ter um requirements.txt
arquivo localizado dentro do seu source_dir
diretório que especifica as dependências dos seus scripts de processamento. SageMaker O processamento instala as dependências requirements.txt
no contêiner para você.
from sagemaker.tensorflow import TensorFlowProcessor from sagemaker.processing import ProcessingInput, ProcessingOutput from sagemaker import get_execution_role #Initialize the TensorFlowProcessor tp = TensorFlowProcessor( framework_version='2.3', role=get_execution_role(), instance_type='ml.m5.xlarge', instance_count=1, base_job_name='frameworkprocessor-TF', py_version='py37' ) #Run the processing job tp.run( code='
processing-script.py
', source_dir='scripts
', inputs=[ ProcessingInput( input_name='data', source=f's3://{BUCKET}/{S3_INPUT_PATH}
', destination='/opt/ml/processing/input/data' ), ProcessingInput( input_name='model', source=f's3://{BUCKET}/{S3_PATH_TO_MODEL}
', destination='/opt/ml/processing/input/model' ) ], outputs=[ ProcessingOutput( output_name='predictions', source='/opt/ml/processing/output', destination=f's3://{BUCKET}/{S3_OUTPUT_PATH}
' ) ] )
Se você tiver um arquivo requirements.txt
, ele deverá ser uma lista das bibliotecas que você deseja instalar no contêiner. O caminho para source_dir
pode ser um caminho relativo, absoluto ou do Amazon S3URI. No entanto, se você usa um Amazon S3URI, ele deve apontar para um arquivo tar.gz. Você pode ter vários scripts no diretório que você especificar para source_dir
. Para saber mais sobre a TensorFlowProcessor
classe, consulte TensorFlow Estimator