Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Executar pipelines usando o modo local

Modo de foco
Executar pipelines usando o modo local - SageMaker IA da Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

SageMaker O modo local dos pipelines é uma maneira fácil de testar seus scripts de treinamento, processamento e inferência, bem como a compatibilidade de tempo de execução dos parâmetros do pipeline antes de executá-lo no serviço gerenciado de SageMaker IA. Ao usar o modo local, você pode testar seu pipeline de SageMaker IA localmente usando um conjunto de dados menor. Isso permite a depuração rápida e fácil de erros nos scripts do usuário e na própria definição do pipeline, sem incorrer nos custos de uso do serviço gerenciado. O tópico a seguir mostra como definir e executar pipelines localmente.

O modo local do Pipelines aproveita o modo local de trabalhos de SageMaker IA nos bastidores. Esse é um recurso do SDK do SageMaker Python que permite executar imagens personalizadas ou incorporadas de SageMaker IA localmente usando contêineres do Docker. O modo local do Pipelines é construído sobre o modo local de trabalhos de SageMaker IA. Portanto, você pode esperar ver os mesmos resultados como se estivesse executando esses trabalhos separadamente. Por exemplo, o modo local ainda usa o Amazon S3 para carregar artefatos do modelo e saídas de processamento. Se quiser que os dados gerados pelos trabalhos locais residam no disco local, você pode usar a configuração mencionada no Modo Local.

Atualmente, o modo local do pipeline é compatível com os seguintes tipos de etapas:

Ao contrário do serviço gerenciado do Pipelines, que permite que várias etapas sejam executadas em paralelo usando a Configuração de Paralelismo, o executor local do pipeline executa as etapas sequencialmente. Portanto, o desempenho geral da execução de um pipeline local pode ser inferior à de um executada na nuvem. Isso depende principalmente do tamanho do conjunto de dados, do algoritmo e da potência do computador local. Observe também que os Pipelines executados no modo local não são registrados nos SageMaker Experimentos.

nota

O modo local dos pipelines não é compatível com algoritmos de SageMaker IA, como XGBoost. Caso queira usar esses algoritmos, você deve usá-los no modo script.

Para executar um pipeline localmente, os campos sagemaker_session associados às etapas do pipeline e ao próprio pipeline precisam ser do tipo LocalPipelineSession. O exemplo a seguir mostra como você pode definir um pipeline de SageMaker IA para ser executado localmente.

from sagemaker.workflow.pipeline_context import LocalPipelineSession from sagemaker.pytorch import PyTorch from sagemaker.workflow.steps import TrainingStep from sagemaker.workflow.pipeline import Pipeline local_pipeline_session = LocalPipelineSession() pytorch_estimator = PyTorch( sagemaker_session=local_pipeline_session, role=sagemaker.get_execution_role(), instance_type="ml.c5.xlarge", instance_count=1, framework_version="1.8.0", py_version="py36", entry_point="./entry_point.py", ) step = TrainingStep( name="MyTrainingStep", step_args=pytorch_estimator.fit( inputs=TrainingInput(s3_data="s3://amzn-s3-demo-bucket/my-data/train"), ) ) pipeline = Pipeline( name="MyPipeline", steps=[step], sagemaker_session=local_pipeline_session ) pipeline.create( role_arn=sagemaker.get_execution_role(), description="local pipeline example" ) // pipeline will execute locally execution = pipeline.start() steps = execution.list_steps() training_job_name = steps['PipelineExecutionSteps'][0]['Metadata']['TrainingJob']['Arn'] step_outputs = pipeline_session.sagemaker_client.describe_training_job(TrainingJobName = training_job_name)

Quando estiver pronto para executar o pipeline no serviço gerenciado de SageMaker Pipelines, você pode fazer isso LocalPipelineSession substituindo o trecho de código anterior por PipelineSession (conforme mostrado no exemplo de código a seguir) e executando novamente o código.

from sagemaker.workflow.pipeline_context import PipelineSession pipeline_session = PipelineSession()
PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.