Usando o AWS Data Pipeline - AWS Orientação prescritiva

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Usando o AWS Data Pipeline

Aviso

AWS Data Pipeline não está mais disponível para novos clientes. Os clientes existentes do AWS Data Pipeline podem continuar usando o serviço normalmente. Saiba mais

AWS O Data Pipeline é um serviço web que você pode usar para automatizar a movimentação e a transformação de dados. Usando o Data Pipeline, você pode criar um pipeline para exportar dados da tabela da conta de origem. Os dados exportados são armazenados em um bucket do Amazon Simple Storage Service (Amazon S3) na conta de destino. O bucket do S3 na conta de destino deve estar acessível a partir da conta de origem. Para permitir esse acesso entre contas, atualize a lista de controle de acesso (ACL) no bucket S3 de destino.

Crie outro pipeline na conta de destino (Conta-B) para importar dados do bucket do S3 para a tabela na conta de destino.

Essa era a maneira tradicional de fazer backup de tabelas do Amazon DynamoDB no Amazon S3 e restaurar a partir do Amazon S3 até a AWS Glue introdução do suporte para leitura nativa de tabelas do DynamoDB.

Vantagens

  • É uma solução sem servidor.

  • Nenhum código novo é necessário.

  • AWS O Data Pipeline usa clusters do Amazon EMR nos bastidores para o trabalho, portanto, essa abordagem é eficiente e pode lidar com grandes conjuntos de dados.

Desvantagens

  • AWS Serviços adicionais (Data Pipeline e Amazon S3) são necessários.

  • O processo consome a taxa de transferência provisionada na tabela de origem e nas tabelas de destino envolvidas, portanto, pode afetar o desempenho e a disponibilidade.

  • Essa abordagem gera custos adicionais, acima do custo das unidades de capacidade de leitura RCUs () e unidades de capacidade de gravação () do DynamoDB. WCUs