Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Configurando AWS DataSync transferências com o Amazon S3

Modo de foco
Configurando AWS DataSync transferências com o Amazon S3 - AWS DataSync

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Para transferir dados para ou do seu bucket do Amazon S3, você cria um local de AWS DataSync transferência. DataSync pode usar esse local como origem ou destino para transferir dados.

Fornecendo DataSync acesso aos buckets do S3

DataSync precisa acessar o bucket do S3 para o qual você está transferindo ou do qual você está transferindo. Para fazer isso, você deve criar uma função AWS Identity and Access Management (IAM) que DataSync assuma as permissões necessárias para acessar o bucket. Em seguida, você especifica essa função ao criar sua localização no Amazon S3 para. DataSync

Permissões obrigatórias

As permissões que sua função do IAM precisa podem depender se o bucket é um local de DataSync origem ou destino. O Amazon S3 no Outposts requer um conjunto diferente de permissões.

Amazon S3 (source location)
{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetBucketLocation", "s3:ListBucket", "s3:ListBucketMultipartUploads" ], "Effect": "Allow", "Resource": "arn:aws:s3:::amzn-s3-demo-bucket" }, { "Action": [ "s3:AbortMultipartUpload", "s3:GetObject", "s3:GetObjectTagging", "s3:GetObjectVersion", "s3:GetObjectVersionTagging", "s3:ListMultipartUploadParts" ], "Effect": "Allow", "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*" } ] }
Amazon S3 (destination location)
{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetBucketLocation", "s3:ListBucket", "s3:ListBucketMultipartUploads" ], "Effect": "Allow", "Resource": "arn:aws:s3:::amzn-s3-demo-bucket" }, { "Action": [ "s3:AbortMultipartUpload", "s3:DeleteObject", "s3:GetObject", "s3:GetObjectTagging", "s3:GetObjectVersion", "s3:GetObjectVersionTagging", "s3:ListMultipartUploadParts", "s3:PutObject", "s3:PutObjectTagging" ], "Effect": "Allow", "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*" } ] }
Amazon S3 on Outposts
{ "Version": "2012-10-17", "Statement": [{ "Action": [ "s3-outposts:ListBucket", "s3-outposts:ListBucketMultipartUploads" ], "Effect": "Allow", "Resource": [ "arn:aws:s3-outposts:region:account-id:outpost/outpost-id/bucket/amzn-s3-demo-bucket", "arn:aws:s3-outposts:region:account-id:outpost/outpost-id/accesspoint/bucket-access-point-name" ] }, { "Action": [ "s3-outposts:AbortMultipartUpload", "s3-outposts:DeleteObject", "s3-outposts:GetObject", "s3-outposts:GetObjectTagging", "s3-outposts:GetObjectVersion", "s3-outposts:GetObjectVersionTagging", "s3-outposts:ListMultipartUploadParts", "s3-outposts:PutObject", "s3-outposts:PutObjectTagging" ], "Effect": "Allow", "Resource": [ "arn:aws:s3-outposts:region:account-id:outpost/outpost-id/bucket/amzn-s3-demo-bucket/*", "arn:aws:s3-outposts:region:account-id:outpost/outpost-id/accesspoint/bucket-access-point-name/*" ] }, { "Action": "s3-outposts:GetAccessPoint", "Effect": "Allow", "Resource": "arn:aws:s3-outposts:region:account-id:outpost/outpost-id/accesspoint/bucket-access-point-name" } ] }
{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetBucketLocation", "s3:ListBucket", "s3:ListBucketMultipartUploads" ], "Effect": "Allow", "Resource": "arn:aws:s3:::amzn-s3-demo-bucket" }, { "Action": [ "s3:AbortMultipartUpload", "s3:GetObject", "s3:GetObjectTagging", "s3:GetObjectVersion", "s3:GetObjectVersionTagging", "s3:ListMultipartUploadParts" ], "Effect": "Allow", "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*" } ] }

Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3

Ao criar sua localização do Amazon S3 no console, DataSync você pode criar e assumir automaticamente uma função do IAM que normalmente tem as permissões certas para acessar seu bucket do S3.

Em algumas situações, talvez seja necessário criar essa função manualmente (por exemplo, acessar buckets com camadas extras de segurança ou transferir para ou de um bucket em outro Contas da AWS).

  1. Abra o console do IAM em https://console.aws.amazon.com/iam/.

  2. No painel de navegação esquerdo, em Gerenciamento de acesso, escolha Perfis e, em seguida, escolha Criar perfil.

  3. Na página Selecionar entidade confiável, para Tipo de entidade confiável, escolha AWS service (Serviço da AWS).

  4. Em Caso de uso, escolha DataSyncna lista suspensa e selecione. DataSync Escolha Próximo.

  5. Na página Adicionar permissões, escolha Próximo. Forneça um nome ao perfil e escolha Criar perfil.

  6. Na página Perfis, procure o perfil que você acabou de criar e escolha seu nome.

  7. Na página do perfil, escolha a guia Permissões. Selecione Adicionar permissões e, em seguida, Criar política em linha.

  8. Escolha a guia JSON e adicione as permissões necessárias para acessar o bucket no editor de políticas.

  9. Escolha Próximo. Digite um nome para a política e escolha Criar política.

  10. (Recomendado) Para evitar o problema “confused deputy” entre serviços, faça o seguinte:

    1. Na página Detalhes do perfil, escolha a guia Relações de confiança. Escolha Editar política de confiança.

    2. Atualize a política de confiança usando o exemplo a seguir, que inclui as chaves de contexto de condição global aws:SourceArn e aws:SourceAccount:

      { "Version": "2012-10-17", "Statement": [{ "Effect": "Allow", "Principal": { "Service": "datasync.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": "account-id" }, "StringLike": { "aws:SourceArn": "arn:aws:datasync:region:account-id:*" } } }] }
    3. Escolha Atualizar política.

Você pode especificar esse perfil ao criar seu local no Amazon S3.

  1. Abra o console do IAM em https://console.aws.amazon.com/iam/.

  2. No painel de navegação esquerdo, em Gerenciamento de acesso, escolha Perfis e, em seguida, escolha Criar perfil.

  3. Na página Selecionar entidade confiável, para Tipo de entidade confiável, escolha AWS service (Serviço da AWS).

  4. Em Caso de uso, escolha DataSyncna lista suspensa e selecione. DataSync Escolha Próximo.

  5. Na página Adicionar permissões, escolha Próximo. Forneça um nome ao perfil e escolha Criar perfil.

  6. Na página Perfis, procure o perfil que você acabou de criar e escolha seu nome.

  7. Na página do perfil, escolha a guia Permissões. Selecione Adicionar permissões e, em seguida, Criar política em linha.

  8. Escolha a guia JSON e adicione as permissões necessárias para acessar o bucket no editor de políticas.

  9. Escolha Próximo. Digite um nome para a política e escolha Criar política.

  10. (Recomendado) Para evitar o problema “confused deputy” entre serviços, faça o seguinte:

    1. Na página Detalhes do perfil, escolha a guia Relações de confiança. Escolha Editar política de confiança.

    2. Atualize a política de confiança usando o exemplo a seguir, que inclui as chaves de contexto de condição global aws:SourceArn e aws:SourceAccount:

      { "Version": "2012-10-17", "Statement": [{ "Effect": "Allow", "Principal": { "Service": "datasync.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": "account-id" }, "StringLike": { "aws:SourceArn": "arn:aws:datasync:region:account-id:*" } } }] }
    3. Escolha Atualizar política.

Você pode especificar esse perfil ao criar seu local no Amazon S3.

Acessar buckets do S3 usando criptografia no lado do servidor

DataSync pode transferir dados de ou para buckets do S3 que usam criptografia do lado do servidor. O tipo de chave de criptografia que um bucket usa pode determinar se você precisa de uma política personalizada que DataSync permita acessar o bucket.

Ao usar DataSync com buckets S3 que usam criptografia do lado do servidor, lembre-se do seguinte:

  • Se seu bucket do S3 estiver criptografado com uma chave AWS gerenciada, DataSync poderá acessar os objetos do bucket por padrão se todos os seus recursos estiverem no mesmo Conta da AWS.

  • Se seu bucket do S3 estiver criptografado com uma chave gerenciada pelo cliente AWS Key Management Service (AWS KMS) (SSE-KMS), a política da chave deve incluir a função do IAM DataSync usada para acessar o bucket.

  • Se seu bucket do S3 estiver criptografado com uma chave SSE-KMS gerenciada pelo cliente e em uma chave diferente Conta da AWS, DataSync precisará de permissão para acessar o bucket no outro. Conta da AWS Para isso, você pode configurar fazendo o seguinte:

    • Na função do IAM DataSync usada, você deve especificar a chave SSE-KMS do bucket entre contas usando o Amazon Resource Name (ARN) totalmente qualificado da chave. Esse é o mesmo ARN da chave que você usa para configurar a criptografia padrão do bucket. Você não pode especificar um ID de chave, um nome alias ou um ARN alias nessa situação.

      Aqui está um exemplo de ARN de chave:

      arn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab

      Para obter mais informações sobre a especificação de chaves do KMS em instruções de política do IAM, consulte o Guia do desenvolvedor do AWS Key Management Service.

    • Na política de chaves SSE-KMS, especifique a função do IAM usada por. DataSync

  • Se seu bucket do S3 for criptografado com uma AWS KMS chave gerenciada pelo cliente (DSSE-KMS) para criptografia de camada dupla no lado do servidor, a política da chave deve incluir a função do IAM usada para acessar o bucket. DataSync (Lembre-se de que o DSSE-KMS não é compatível com chaves de bucket do S3, o que pode reduzir AWS KMS os custos da solicitação.)

  • Se seu bucket do S3 estiver criptografado com uma chave de criptografia fornecida pelo cliente (SSE-C), não é DataSync possível acessar esse bucket.

O exemplo a seguir é uma política de chave para uma chave SSE-KMS gerenciada pelo cliente. A política está associada a um bucket do S3 que usa criptografia no lado do servidor.

Se você desejar usar esse exemplo, substitua os valores a seguir pelos seus:

  • account-id— Seu Conta da AWS.

  • admin-role-name— O nome da função do IAM que pode administrar a chave.

  • datasync-role-name— O nome da função do IAM que permite DataSync usar a chave ao acessar o bucket.

{ "Id": "key-consolepolicy-3", "Version": "2012-10-17", "Statement": [ { "Sid": "Enable IAM Permissions", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::account-id:root" }, "Action": "kms:*", "Resource": "*" }, { "Sid": "Allow access for Key Administrators", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::account-id:role/admin-role-name" }, "Action": [ "kms:Create*", "kms:Describe*", "kms:Enable*", "kms:List*", "kms:Put*", "kms:Update*", "kms:Revoke*", "kms:Disable*", "kms:Get*", "kms:Delete*", "kms:TagResource", "kms:UntagResource", "kms:ScheduleKeyDeletion", "kms:CancelKeyDeletion" ], "Resource": "*" }, { "Sid": "Allow use of the key", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::account-id:role/datasync-role-name" }, "Action": [ "kms:Encrypt", "kms:Decrypt", "kms:ReEncrypt*", "kms:GenerateDataKey*" ], "Resource": "*" } ] }

O exemplo a seguir é uma política de chave para uma chave SSE-KMS gerenciada pelo cliente. A política está associada a um bucket do S3 que usa criptografia no lado do servidor.

Se você desejar usar esse exemplo, substitua os valores a seguir pelos seus:

  • account-id— Seu Conta da AWS.

  • admin-role-name— O nome da função do IAM que pode administrar a chave.

  • datasync-role-name— O nome da função do IAM que permite DataSync usar a chave ao acessar o bucket.

{ "Id": "key-consolepolicy-3", "Version": "2012-10-17", "Statement": [ { "Sid": "Enable IAM Permissions", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::account-id:root" }, "Action": "kms:*", "Resource": "*" }, { "Sid": "Allow access for Key Administrators", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::account-id:role/admin-role-name" }, "Action": [ "kms:Create*", "kms:Describe*", "kms:Enable*", "kms:List*", "kms:Put*", "kms:Update*", "kms:Revoke*", "kms:Disable*", "kms:Get*", "kms:Delete*", "kms:TagResource", "kms:UntagResource", "kms:ScheduleKeyDeletion", "kms:CancelKeyDeletion" ], "Resource": "*" }, { "Sid": "Allow use of the key", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::account-id:role/datasync-role-name" }, "Action": [ "kms:Encrypt", "kms:Decrypt", "kms:ReEncrypt*", "kms:GenerateDataKey*" ], "Resource": "*" } ] }

Acesso aos buckets restritos do S3

Se você precisar transferir para ou de um bucket do S3 que normalmente nega todo o acesso, você pode editar a política do bucket para que DataSync possa acessar o bucket somente para sua transferência.

  1. Copie a política de bucket do S3 a seguir.

    { "Version": "2012-10-17", "Statement": [{ "Sid": "Deny-access-to-bucket", "Effect": "Deny", "Principal": "*", "Action": "s3:*", "Resource": [ "arn:aws:s3:::amzn-s3-demo-bucket", "arn:aws:s3:::amzn-s3-demo-bucket/*" ], "Condition": { "StringNotLike": { "aws:userid": [ "datasync-iam-role-id:*", "your-iam-role-id" ] } } }] }
  2. Na política, substitua os seguintes valores:

    • amzn-s3-demo-bucket: especifique o nome do bucket restrito do S3.

    • datasync-iam-role-id— Especifique o ID da função do IAM DataSync usada para acessar o bucket.

      Execute o AWS CLI comando a seguir para obter o ID da função do IAM:

      aws iam get-role --role-name datasync-iam-role-name

      Na saída, procure o valor RoleId:

      "RoleId": "ANPAJ2UCCR6DPCEXAMPLE"

    • your-iam-role-id— Especifique o ID da função do IAM que você usa para criar sua DataSync localização para o bucket.

      Execute o comando a seguir para criar a ID do perfil do IAM:

      aws iam get-role --role-name your-iam-role-name

      Na saída, procure o valor RoleId:

      "RoleId": "AIDACKCEVSQ6C2EXAMPLE"

  3. Adicione essa política à política do bucket do S3.

  4. Quando você terminar de usar DataSync o bucket restrito, remova as condições para ambas as funções do IAM da política do bucket.

  1. Copie a política de bucket do S3 a seguir.

    { "Version": "2012-10-17", "Statement": [{ "Sid": "Deny-access-to-bucket", "Effect": "Deny", "Principal": "*", "Action": "s3:*", "Resource": [ "arn:aws:s3:::amzn-s3-demo-bucket", "arn:aws:s3:::amzn-s3-demo-bucket/*" ], "Condition": { "StringNotLike": { "aws:userid": [ "datasync-iam-role-id:*", "your-iam-role-id" ] } } }] }
  2. Na política, substitua os seguintes valores:

    • amzn-s3-demo-bucket: especifique o nome do bucket restrito do S3.

    • datasync-iam-role-id— Especifique o ID da função do IAM DataSync usada para acessar o bucket.

      Execute o AWS CLI comando a seguir para obter o ID da função do IAM:

      aws iam get-role --role-name datasync-iam-role-name

      Na saída, procure o valor RoleId:

      "RoleId": "ANPAJ2UCCR6DPCEXAMPLE"

    • your-iam-role-id— Especifique o ID da função do IAM que você usa para criar sua DataSync localização para o bucket.

      Execute o comando a seguir para criar a ID do perfil do IAM:

      aws iam get-role --role-name your-iam-role-name

      Na saída, procure o valor RoleId:

      "RoleId": "AIDACKCEVSQ6C2EXAMPLE"

  3. Adicione essa política à política do bucket do S3.

  4. Quando você terminar de usar DataSync o bucket restrito, remova as condições para ambas as funções do IAM da política do bucket.

Acesso aos buckets do S3 com acesso restrito à VPC

Um bucket do Amazon S3 que limita o acesso a endpoints específicos de nuvem privada virtual (VPC) ou VPCs negará a transferência DataSync de ou para esse bucket. Para permitir transferências nessas situações, você pode atualizar a política do bucket para incluir a função do IAM que você especifica com sua DataSync localização.

Option 1: Allowing access based on DataSync location role ARN

Na política de bucket do S3, você pode especificar o Amazon Resource Name (ARN) da DataSync sua função de localização do IAM.

O exemplo a seguir é uma política de bucket do S3 que nega o acesso de todos, exceto dois VPCs (vpc-1234567890abcdef0evpc-abcdef01234567890). No entanto, a política também inclui a ArnNotLikeIfExistscondição e a chave de PrincipalArn condição aws:, que permitem que o ARN de uma função de DataSync localização acesse o bucket.

{ "Version": "2012-10-17", "Statement": [ { "Sid": "Access-to-specific-VPCs-only", "Effect": "Deny", "Principal": "*", "Action": "s3:*", "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*", "Condition": { "StringNotEqualsIfExists": { "aws:SourceVpc": [ "vpc-1234567890abcdef0", "vpc-abcdef01234567890" ] }, "ArnNotLikeIfExists": { "aws:PrincipalArn": [ "arn:aws:iam::account-id:role/datasync-location-role-name" ] } } } ] }
Option 2: Allowing access based on DataSync location role tag

Na política de bucket do S3, você pode especificar uma tag anexada à sua função de DataSync localização do IAM.

O exemplo a seguir é uma política de bucket do S3 que nega o acesso de todos, exceto dois VPCs (vpc-1234567890abcdef0evpc-abcdef01234567890). No entanto, a política também inclui a StringNotEqualsIfExistscondição e aws: PrincipalTag condition key, que permitem um principal com a chave exclude-from-vpc-restriction e o valor da tagtrue. Você pode tentar uma abordagem semelhante em sua política de bucket especificando uma tag anexada à sua função de DataSync localização.

{ "Version": "2012-10-17", "Statement": [ { "Sid": "Access-to-specific-VPCs-only", "Effect": "Deny", "Principal": "*", "Action": "s3:*", "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*", "Condition": { "StringNotEqualsIfExists": { "aws:SourceVpc": [ "vpc-1234567890abcdef0", "vpc-abcdef01234567890" ], "aws:PrincipalTag/exclude-from-vpc-restriction": "true" } } } ] }

Na política de bucket do S3, você pode especificar o Amazon Resource Name (ARN) da DataSync sua função de localização do IAM.

O exemplo a seguir é uma política de bucket do S3 que nega o acesso de todos, exceto dois VPCs (vpc-1234567890abcdef0evpc-abcdef01234567890). No entanto, a política também inclui a ArnNotLikeIfExistscondição e a chave de PrincipalArn condição aws:, que permitem que o ARN de uma função de DataSync localização acesse o bucket.

{ "Version": "2012-10-17", "Statement": [ { "Sid": "Access-to-specific-VPCs-only", "Effect": "Deny", "Principal": "*", "Action": "s3:*", "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*", "Condition": { "StringNotEqualsIfExists": { "aws:SourceVpc": [ "vpc-1234567890abcdef0", "vpc-abcdef01234567890" ] }, "ArnNotLikeIfExists": { "aws:PrincipalArn": [ "arn:aws:iam::account-id:role/datasync-location-role-name" ] } } } ] }

Considerações sobre a classes de armazenamento com transferências do Amazon S3

Quando o Amazon S3 é seu local de destino, DataSync você pode transferir seus dados diretamente para uma classe de armazenamento específica do Amazon S3.

Algumas classes de armazenamento têm comportamentos que podem afetar os custos de armazenamento do Amazon S3. Ao usar classes de armazenamento que podem gerar custos adicionais por substituição, exclusão ou recuperação de objetos, as alterações em dados ou metadados de objetos resultam nesses custos. Para obter mais informações, consulte Definição de preço do Amazon S3.

Importante

Novos objetos transferidos para seu local de destino do Amazon S3 são armazenados usando a classe de armazenamento que você especifica ao criar sua localização. DataSync não altera a classe de armazenamento dos objetos existentes no bucket (mesmo que esse objeto tenha sido modificado no local de origem).

Classe de armazenamento do Amazon S3 Considerações
S3 Standard Selecione S3 Standard (Padrão) para armazenar seus arquivos acessados com frequência de forma redundante em várias zonas de disponibilidade separadas geograficamente. Esse será o padrão se você não especificar uma classe de armazenamento.
S3 Intelligent-Tiering

Escolha S3 Intelligent-Tiering para otimizar os custos de armazenamento movendo automaticamente os dados para o nível de acesso de armazenamento mais econômico.

Você paga uma taxa mensal por objeto armazenado na classe de armazenamento S3 Intelligent-Tiering. Essa cobrança do Amazon S3 inclui o monitoramento de padrões de acesso a dados e a movimentação de objetos entre níveis.

S3 Standard – IA

Selecione S3 Standard-IA para armazenar seus objetos raramente acessados de forma redundante em várias zonas de disponibilidade separadas geograficamente.

Os objetos armazenados na classe de armazenamento S3 Standard-IA podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 Standard-IA.

Objetos com menos de 128 KB são menores que a cobrança de capacidade mínima por objeto na classe de armazenamento S3 Standard-IA. Esses objetos são armazenados na classe de armazenamento S3 Standard.

S3 One Zone-IA

Selecione S3 One Zone-IA para armazenar seus objetos raramente acessados em uma única zona de disponibilidade.

Os objetos armazenados na classe de armazenamento S3 One Zone-IA podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 One Zone-IA.

Objetos com menos de 128 KB são menores que a cobrança de capacidade mínima por objeto na classe de armazenamento S3 One Zone-IA. Esses objetos são armazenados na classe de armazenamento S3 Standard.

S3 Glacier Instant Retrieval

Escolha o S3 Glacier Instant Retrieval para arquivar objetos que raramente são acessados, mas que precisam ser recuperados em milissegundos.

Os dados armazenados na classe de armazenamento S3 Glacier Instant Retrieval oferecem economia de custos em comparação à classe de armazenamento S3 Standard – IA, com a mesma latência e performance do throughput. Contudo, os custos de acesso a dados do S3 Glacier Instant Retrieval são mais altos que os do S3 Standard-IA.

Os objetos armazenados no S3 Glacier Instant Retrieval podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 Glacier Instant Retrieval.

Objetos com menos de 128 KB são menores que a cobrança mínima de capacidade por objeto na classe de armazenamento S3 Glacier Instant Retrieval. Esses objetos são armazenados na classe de armazenamento S3 Standard.

S3 Glacier Flexible Retrieval

Escolha S3 Glacier Flexible Retrieval para arquivos mais ativos.

Os objetos armazenados na classe S3 Glacier Flexible Retrieval podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 Glacier Flexible Retrieval.

A classe de armazenamento S3 Glacier Flexible Retrieval exige 40 KB de metadados adicionais para cada objeto arquivado. DataSync coloca objetos com menos de 40 KB na classe de armazenamento S3 Standard.

Você deve restaurar objetos arquivados nessa classe de armazenamento antes de DataSync poder lê-los. Para obter mais informações, consulte Trabalhar com objetos arquivados no Guia do usuário do Amazon S3.

Ao usar o S3 Glacier Flexible Retrieval, escolha a opção de tarefa Verificar somente os dados transferidos para comparar somas de verificação de dados e metadados no final da transferência. Você não pode usar aopção Verificar todos os dados no destino para essa classe de armazenamento, pois requer a recuperação de todos os objetos existentes do destino.

S3 Glacier Deep Archive

Escolha S3 Glacier Deep Archive para arquivar seus objetos para retenção de dados de longo prazo e preservação digital, no caso em que os dados são acessados uma ou duas vezes por ano.

Os objetos armazenados no S3 Glacier Deep Archive podem incorrer em cobranças adicionais pela substituição, exclusão ou recuperação. Considere a frequência com que esses objetos mudam, por quanto tempo você planeja manter esses objetos e com que frequência você precisa acessá-los. Alterações nos dados ou metadados do objeto equivalem a excluir um objeto e criar um novo para substituí-lo. Isso resulta em cobranças adicionais para objetos armazenados na classe de armazenamento S3 Glacier Deep Archive.

A classe de armazenamento S3 Glacier Deep Archive exige 40 KB de metadados adicionais para cada objeto arquivado. DataSync coloca objetos com menos de 40 KB na classe de armazenamento S3 Standard.

Você deve restaurar objetos arquivados nessa classe de armazenamento antes de DataSync poder lê-los. Para obter mais informações, consulte Trabalhar com objetos arquivados no Guia do usuário do Amazon S3.

Ao usar o S3 Glacier Deep Archive, escolha a opção de tarefa Verificar somente os dados transferidos para comparar somas de verificação de dados e metadados no final da transferência. Você não pode usar aopção Verificar todos os dados no destino para essa classe de armazenamento, pois requer a recuperação de todos os objetos existentes do destino.

S3 Outposts

Classe de armazenamento para o Amazon S3 no Outposts.

Avaliando os custos de solicitação do S3 ao usar DataSync

Com os locais do Amazon S3, você incorre em custos relacionados às solicitações de API do S3 feitas por. DataSync Esta seção pode ajudá-lo a entender como DataSync usa essas solicitações e como elas podem afetar seus custos do Amazon S3.

Solicitações do S3 feitas por DataSync

A tabela a seguir descreve as solicitações do S3 que você DataSync pode fazer quando você está copiando dados de ou para um local do Amazon S3.

Solicitação do S3 Como DataSync o usa

ListObjectV2

DataSync faz pelo menos uma LIST solicitação para cada objeto que termina em uma barra (/) para listar os objetos que começam com esse prefixo. Essa solicitação é chamada durante a fase de preparação de uma tarefa.

HeadObject

DataSync faz HEAD solicitações para recuperar metadados do objeto durante as fases de preparação e verificação de uma tarefa. Pode haver várias HEAD solicitações por objeto, dependendo de como você DataSync deseja verificar a integridade dos dados que ele transfere.

GetObject

DataSync faz GET solicitações para ler dados de um objeto durante a fase de transferência de uma tarefa. Pode haver várias solicitações de GET para objetos grandes.

GetObjectTagging

Se você configurar sua tarefa para copiar tags de objeto, DataSync faça essas GET solicitações para verificar as tags de objeto durante as fases de preparação e transferência da tarefa.

PutObject

DataSync faz PUT solicitações para criar objetos e prefixos em um bucket do S3 de destino durante a fase de transferência de uma tarefa. Como DataSync usa o recurso de upload de várias partes do Amazon S3, pode haver várias PUT solicitações para objetos grandes. Para ajudar a minimizar os custos de armazenamento, recomendamos o uso de uma configuração de ciclo de vida para impedir uploads incompletos de várias partes.

PutObjectTagging

Se seus objetos de origem tiverem tags e você configurar sua tarefa para copiar tags de objetos, DataSync faça essas PUT solicitações ao transferir essas tags.

CopyObject

DataSync faz uma COPY solicitação para criar uma cópia de um objeto somente se os metadados desse objeto mudarem. Isso pode acontecer se você copiou originalmente os dados para o bucket do S3 usando outro serviço ou ferramenta que não transferiu seus metadados.

Considerações sobre custos

DataSync faz solicitações do S3 nos buckets do S3 toda vez que você executa sua tarefa. Isso pode fazer com que as cobranças aumentem em determinadas situações. Por exemplo:

  • Você está frequentemente transferindo objetos para ou de um bucket do S3.

  • Talvez você não esteja transferindo muitos dados, mas o bucket do S3 contém muitos objetos. Você ainda pode ver altas cobranças nesse cenário porque DataSync faz solicitações do S3 em cada um dos objetos do bucket.

  • Você está transferindo entre buckets do S3, assim DataSync como fazendo solicitações do S3 na origem e no destino.

Para ajudar a minimizar os custos de solicitação do S3 relacionados a DataSync, considere o seguinte:

Quais classes de armazenamento do S3 eu estou usando?

As taxas de solicitação do S3 podem variar de acordo com a classe de armazenamento do Amazon S3 que os objetos estão usando, principalmente para classes que arquivam objetos (como S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).

Aqui estão alguns cenários nos quais as classes de armazenamento podem afetar suas cobranças de solicitação do S3 durante o uso DataSync:

  • Sempre que você executa uma tarefa, DataSync faz HEAD solicitações para recuperar metadados do objeto. Essas solicitações resultam em cobranças mesmo se você não estiver movendo nenhum objeto. O quanto essas solicitações afetam sua fatura depende da classe de armazenamento que seus objetos estão usando e do número de objetos DataSync digitalizados.

  • Se você moveu objetos para a classe de armazenamento S3 Glacier Instant Retrieval (diretamente ou por meio de uma configuração de ciclo de vida do bucket), as solicitações de objetos dessa classe são mais caras do que de outras classes de armazenamento.

  • Se você configurar sua DataSync tarefa para verificar se os locais de origem e destino estão totalmente sincronizados, haverá GET solicitações para cada objeto em todas as classes de armazenamento (exceto S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).

  • Além das solicitações de GET, você incorre em custos de recuperação de dados para objetos nas classes de armazenamento S3 Standard-IA, S3 One Zone-IA ou S3 Glacier Instant Retrieval.

Para obter mais informações, consulte Definição de preço do Amazon S3.

Com que frequência preciso transferir meus dados?

Se você precisar mover dados de forma recorrente, pense em um cronograma que não execute mais tarefas do que o necessário.

Você também pode considerar limitar o escopo de suas transferências. Por exemplo, você pode configurar DataSync para focar em objetos em determinados prefixos ou filtrar quais dados são transferidos. Essas opções podem ajudar a reduzir o número de solicitações do S3 feitas sempre que você executa sua DataSync tarefa.

Outras considerações sobre transferências do Amazon S3

Criando seu local de transferência para um bucket de uso geral do Amazon S3

Para criar um local para sua transferência, você precisa de um bucket S3 de uso geral existente. Se você não tiver um, consulte o Guia do usuário do Amazon S3.

  1. Abra o AWS DataSync console em https://console.aws.amazon.com/datasync/.

  2. No painel de navegação esquerdo, expanda Transferência de dados e escolha Locais e Criar local.

  3. Em Tipo de localização, escolha Amazon S3 e, em seguida, escolha Balde de uso geral.

  4. Para URI do S3, insira ou escolha o bucket e o prefixo que você deseja usar para sua localização.

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  5. Para a classe de armazenamento S3 quando usada como destino, escolha uma classe de armazenamento que você deseja que seus objetos usem quando o Amazon S3 for um destino de transferência.

    Para obter mais informações, consulte Considerações sobre a classes de armazenamento com transferências do Amazon S3.

  6. Em Perfil do IAM, siga um destes procedimentos:

    • Escolha Autogenerate DataSync para criar automaticamente uma função do IAM com as permissões necessárias para acessar o bucket do S3.

      Se uma função do IAM foi criada DataSync anteriormente para esse bucket do S3, essa função é escolhida por padrão.

    • Escolha um perfil do IAM personalizado que você criou. Para obter mais informações, consulte Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3.

  7. (Opcional) Escolha Adicionar nova tag para marcar sua localização no Amazon S3.

    Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

  8. Escolha Criar local.

  1. Abra o AWS DataSync console em https://console.aws.amazon.com/datasync/.

  2. No painel de navegação esquerdo, expanda Transferência de dados e escolha Locais e Criar local.

  3. Em Tipo de localização, escolha Amazon S3 e, em seguida, escolha Balde de uso geral.

  4. Para URI do S3, insira ou escolha o bucket e o prefixo que você deseja usar para sua localização.

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  5. Para a classe de armazenamento S3 quando usada como destino, escolha uma classe de armazenamento que você deseja que seus objetos usem quando o Amazon S3 for um destino de transferência.

    Para obter mais informações, consulte Considerações sobre a classes de armazenamento com transferências do Amazon S3.

  6. Em Perfil do IAM, siga um destes procedimentos:

    • Escolha Autogenerate DataSync para criar automaticamente uma função do IAM com as permissões necessárias para acessar o bucket do S3.

      Se uma função do IAM foi criada DataSync anteriormente para esse bucket do S3, essa função é escolhida por padrão.

    • Escolha um perfil do IAM personalizado que você criou. Para obter mais informações, consulte Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3.

  7. (Opcional) Escolha Adicionar nova tag para marcar sua localização no Amazon S3.

    Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

  8. Escolha Criar local.

  1. Copie o seguinte comando create-location-s3:

    aws datasync create-location-s3 \ --s3-bucket-arn 'arn:aws:s3:::amzn-s3-demo-bucket' \ --s3-storage-class 'your-S3-storage-class' \ --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \ --subdirectory /your-prefix-name
  2. Em --s3-bucket-arn, especifique o ARN do bucket do S3 que você deseja usar como um local.

  3. Em --s3-storage-class, especifique uma classe de armazenamento que você deseja que os objetos usem quando o Amazon S3 for um destino de transferência.

  4. Para--s3-config, especifique o ARN da função do IAM que DataSync precisa acessar seu bucket.

    Para obter mais informações, consulte Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3.

  5. Para--subdirectory, especifique um prefixo no bucket do S3 que DataSync leia ou grave (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  6. Execute o comando create-location-s3.

    Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

    { "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d" }

  1. Copie o seguinte comando create-location-s3:

    aws datasync create-location-s3 \ --s3-bucket-arn 'arn:aws:s3:::amzn-s3-demo-bucket' \ --s3-storage-class 'your-S3-storage-class' \ --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \ --subdirectory /your-prefix-name
  2. Em --s3-bucket-arn, especifique o ARN do bucket do S3 que você deseja usar como um local.

  3. Em --s3-storage-class, especifique uma classe de armazenamento que você deseja que os objetos usem quando o Amazon S3 for um destino de transferência.

  4. Para--s3-config, especifique o ARN da função do IAM que DataSync precisa acessar seu bucket.

    Para obter mais informações, consulte Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3.

  5. Para--subdirectory, especifique um prefixo no bucket do S3 que DataSync leia ou grave (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  6. Execute o comando create-location-s3.

    Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

    { "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d" }

Você pode usar esse local como origem ou destino para sua DataSync tarefa.

Criando seu local de transferência para um bucket do S3 on Outposts

Para criar um local para sua transferência, você precisa de um bucket existente do Amazon S3 on Outposts. Se você não tiver um, consulte o Guia do usuário do Amazon S3 on Outposts.

Você também precisa de um DataSync agente. Para obter mais informações, consulte Implantando seu agente em AWS Outposts.

Ao transferir de um prefixo de bucket do S3 on Outposts que contém um grande conjunto de dados (como centenas de milhares ou milhões de objetos), sua tarefa pode atingir o tempo limite. DataSync Para evitar isso, considere usar um DataSync manifesto, que permite especificar os objetos exatos que você precisa transferir.

  1. Abra o AWS DataSync console em https://console.aws.amazon.com/datasync/.

  2. No painel de navegação esquerdo, expanda Transferência de dados e escolha Locais e Criar local.

  3. Para Tipo de localização, escolha Amazon S3 e, em seguida, escolha Outposts bucket.

  4. Para o bucket do S3, escolha um ponto de acesso do Amazon S3 que possa acessar seu bucket do S3 on Outposts.

    Para obter mais informações, consulte o Guia do usuário do Amazon S3.

  5. Para a classe de armazenamento S3 quando usada como destino, escolha uma classe de armazenamento que você deseja que seus objetos usem quando o Amazon S3 for um destino de transferência.

    Para obter mais informações, consulteConsiderações sobre a classes de armazenamento com transferências do Amazon S3. DataSync por padrão, usa a classe de armazenamento S3 Outposts para Amazon S3 on Outposts.

  6. Para agentes, especifique o Amazon Resource Name (ARN) do DataSync agente em seu Outpost.

  7. Em Pasta, insira um prefixo no bucket do S3 que DataSync lê ou grava (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  8. Em Perfil do IAM, siga um destes procedimentos:

    • Escolha Autogenerate DataSync para criar automaticamente uma função do IAM com as permissões necessárias para acessar o bucket do S3.

      Se uma função do IAM foi criada DataSync anteriormente para esse bucket do S3, essa função é escolhida por padrão.

    • Escolha um perfil do IAM personalizado que você criou. Para obter mais informações, consulte Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3.

  9. (Opcional) Escolha Adicionar nova tag para marcar sua localização no Amazon S3.

    Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

  10. Escolha Criar local.

  1. Abra o AWS DataSync console em https://console.aws.amazon.com/datasync/.

  2. No painel de navegação esquerdo, expanda Transferência de dados e escolha Locais e Criar local.

  3. Para Tipo de localização, escolha Amazon S3 e, em seguida, escolha Outposts bucket.

  4. Para o bucket do S3, escolha um ponto de acesso do Amazon S3 que possa acessar seu bucket do S3 on Outposts.

    Para obter mais informações, consulte o Guia do usuário do Amazon S3.

  5. Para a classe de armazenamento S3 quando usada como destino, escolha uma classe de armazenamento que você deseja que seus objetos usem quando o Amazon S3 for um destino de transferência.

    Para obter mais informações, consulteConsiderações sobre a classes de armazenamento com transferências do Amazon S3. DataSync por padrão, usa a classe de armazenamento S3 Outposts para Amazon S3 on Outposts.

  6. Para agentes, especifique o Amazon Resource Name (ARN) do DataSync agente em seu Outpost.

  7. Em Pasta, insira um prefixo no bucket do S3 que DataSync lê ou grava (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  8. Em Perfil do IAM, siga um destes procedimentos:

    • Escolha Autogenerate DataSync para criar automaticamente uma função do IAM com as permissões necessárias para acessar o bucket do S3.

      Se uma função do IAM foi criada DataSync anteriormente para esse bucket do S3, essa função é escolhida por padrão.

    • Escolha um perfil do IAM personalizado que você criou. Para obter mais informações, consulte Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3.

  9. (Opcional) Escolha Adicionar nova tag para marcar sua localização no Amazon S3.

    Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

  10. Escolha Criar local.

  1. Copie o seguinte comando create-location-s3:

    aws datasync create-location-s3 \ --s3-bucket-arn 'bucket-access-point' \ --s3-storage-class 'your-S3-storage-class' \ --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \ --subdirectory /your-folder \ --agent-arns 'arn:aws:datasync:your-region:account-id::agent/agent-agent-id'
  2. Para--s3-bucket-arn, especifique o ARN de um ponto de acesso Amazon S3 que pode acessar seu bucket do S3 no Outposts.

    Para obter mais informações, consulte o Guia do usuário do Amazon S3.

  3. Em --s3-storage-class, especifique uma classe de armazenamento que você deseja que os objetos usem quando o Amazon S3 for um destino de transferência.

    Para obter mais informações, consulteConsiderações sobre a classes de armazenamento com transferências do Amazon S3. DataSync por padrão, usa a classe de armazenamento S3 Outposts para S3 on Outposts.

  4. Para--s3-config, especifique o ARN da função do IAM que DataSync precisa acessar seu bucket.

    Para obter mais informações, consulte Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3.

  5. Para--subdirectory, especifique um prefixo no bucket do S3 que DataSync leia ou grave (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  6. Para--agent-arns, especifique o ARN do DataSync agente em seu Posto Avançado.

  7. Execute o comando create-location-s3.

    Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

    { "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d" }

  1. Copie o seguinte comando create-location-s3:

    aws datasync create-location-s3 \ --s3-bucket-arn 'bucket-access-point' \ --s3-storage-class 'your-S3-storage-class' \ --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \ --subdirectory /your-folder \ --agent-arns 'arn:aws:datasync:your-region:account-id::agent/agent-agent-id'
  2. Para--s3-bucket-arn, especifique o ARN de um ponto de acesso Amazon S3 que pode acessar seu bucket do S3 no Outposts.

    Para obter mais informações, consulte o Guia do usuário do Amazon S3.

  3. Em --s3-storage-class, especifique uma classe de armazenamento que você deseja que os objetos usem quando o Amazon S3 for um destino de transferência.

    Para obter mais informações, consulteConsiderações sobre a classes de armazenamento com transferências do Amazon S3. DataSync por padrão, usa a classe de armazenamento S3 Outposts para S3 on Outposts.

  4. Para--s3-config, especifique o ARN da função do IAM que DataSync precisa acessar seu bucket.

    Para obter mais informações, consulte Criação de uma função do IAM DataSync para acessar sua localização no Amazon S3.

  5. Para--subdirectory, especifique um prefixo no bucket do S3 que DataSync leia ou grave (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  6. Para--agent-arns, especifique o ARN do DataSync agente em seu Posto Avançado.

  7. Execute o comando create-location-s3.

    Se o comando for bem-sucedido, você receberá uma resposta que mostra o ARN do local que você criou. Por exemplo:

    { "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d" }

Você pode usar esse local como origem ou destino para sua DataSync tarefa.

Transferências do Amazon S3 entre Contas da AWS

Com DataSync, você pode mover dados de ou para buckets do S3 em diferentes. Contas da AWS Para obter mais informações, consulte os seguintes tutoriais:

Transferências do Amazon S3 entre regiões comerciais e AWS GovCloud (US) Regions

Por padrão, DataSync não é transferido entre buckets S3 em ambientes comerciais e. AWS GovCloud (US) Regions Porém, você ainda pode configurar esse tipo de transferência criando um local de armazenamento de objetos para um dos buckets do S3 da transferência. Esse tipo de local requer um DataSync agente.

Antes de começar: certifique-se de que compreende as implicações de custos de transferir entre regiões. Para obter mais informações, consulte Preços do AWS DataSync.

Fornecendo DataSync acesso ao bucket do seu local de armazenamento de objetos

Ao criar o local de armazenamento de objetos para essa transferência, você deve fornecer DataSync as credenciais de um usuário do IAM com permissão para acessar o bucket S3 do local. Para obter mais informações, consulte Permissões obrigatórias.

Atenção

Os usuários do IAM têm credenciais de longo prazo, o que representa um risco de segurança. Para ajudar a reduzir esse risco, recomendamos que você forneça a esses usuários somente as permissões necessárias para realizar a tarefa e que você os remova quando não forem mais necessários.

Criar seu agente DataSync

Como você está transferindo entre um comercial e um AWS GovCloud (US) Region, você implanta seu DataSync agente como uma EC2 instância da Amazon em uma das regiões. Recomendamos que o agente use um endpoint de serviço da VPC para evitar custos de transferência de dados para a Internet pública. Para obter mais informações, consulte os preços do Amazon EC2 Data Transfer.

Escolha um dos cenários a seguir que descrevem como criar um agente com base na região em que você planeja executar sua DataSync tarefa.

O diagrama a seguir mostra uma transferência em que sua DataSync tarefa e seu agente estão na região comercial.

Um DataSync agente implantado em uma região comercial para uma transferência entre regiões para um bucket S3 em um. AWS GovCloud (US) Region
Referência Descrição
1 Na região comercial em que você está executando uma DataSync tarefa, os dados são transferidos do bucket S3 de origem. O bucket de origem é configurado como um local no Amazon S3 na região comercial.
2 Transferências de dados por meio do DataSync agente, que está na mesma VPC e sub-rede em que o endpoint do serviço VPC e as interfaces de rede estão localizados.
3 Transferências de dados para o bucket do S3 de destino na AWS GovCloud (US) Region. O bucket de destino é configurado como um local de armazenamento de objetos na região comercial.

Você também pode usar essa mesma configuração para transferir a direção oposta da AWS GovCloud (US) Region para a região comercial.

Para criar seu DataSync agente
  1. Implante um EC2 agente da Amazon em sua região comercial.

  2. Configure o agente para usar um endpoint de serviço da VPC.

  3. Ative o agente.

O diagrama a seguir mostra uma transferência em que sua DataSync tarefa e seu agente estão na região comercial.

Um DataSync agente implantado em uma região comercial para uma transferência entre regiões para um bucket S3 em um. AWS GovCloud (US) Region
Referência Descrição
1 Na região comercial em que você está executando uma DataSync tarefa, os dados são transferidos do bucket S3 de origem. O bucket de origem é configurado como um local no Amazon S3 na região comercial.
2 Transferências de dados por meio do DataSync agente, que está na mesma VPC e sub-rede em que o endpoint do serviço VPC e as interfaces de rede estão localizados.
3 Transferências de dados para o bucket do S3 de destino na AWS GovCloud (US) Region. O bucket de destino é configurado como um local de armazenamento de objetos na região comercial.

Você também pode usar essa mesma configuração para transferir a direção oposta da AWS GovCloud (US) Region para a região comercial.

Para criar seu DataSync agente
  1. Implante um EC2 agente da Amazon em sua região comercial.

  2. Configure o agente para usar um endpoint de serviço da VPC.

  3. Ative o agente.

O diagrama a seguir mostra uma transferência em que sua DataSync tarefa e seu agente estão no AWS GovCloud (US) Region.

Um DataSync agente implantado em uma transferência AWS GovCloud (US) Region ou entre regiões para um bucket do S3 na mesma. AWS GovCloud (US) Region
Referência Descrição
1 Transferências de dados do bucket S3 de origem na região comercial para o AWS GovCloud (US) Region local em que você está executando uma DataSync tarefa. O bucket de origem é configurado como um local de armazenamento de objetos na AWS GovCloud (US) Region.
2 No AWS GovCloud (US) Region, os dados são transferidos por meio do DataSync agente na mesma VPC e sub-rede em que o endpoint do serviço VPC e as interfaces de rede estão localizados.
3 Transferências de dados para o bucket do S3 de destino na AWS GovCloud (US) Region. O bucket de destino é configurado como um local do Amazon S3 na AWS GovCloud (US) Region.

Você também pode usar essa mesma configuração para transferir a direção oposta da AWS GovCloud (US) Region para a região comercial.

Para criar seu DataSync agente
  1. Implante um EC2 agente da Amazon em seu AWS GovCloud (US) Region.

  2. Configure o agente para usar um endpoint de serviço da VPC.

  3. Ative o agente.

Se o conjunto de dados for altamente compactável, você poderá ter uma redução de custos se criar o agente em uma região comercial enquanto executa uma tarefa em uma AWS GovCloud (US) Region. Há necessidade de mais configuração do que o normal para criar esse agente, incluindo preparar o agente para uso em uma região comercial. Para obter informações sobre como criar um agente para essa configuração, consulte o AWS DataSync blog Mover dados para dentro e para fora AWS GovCloud (US) com.

O diagrama a seguir mostra uma transferência em que sua DataSync tarefa e seu agente estão no AWS GovCloud (US) Region.

Um DataSync agente implantado em uma transferência AWS GovCloud (US) Region ou entre regiões para um bucket do S3 na mesma. AWS GovCloud (US) Region
Referência Descrição
1 Transferências de dados do bucket S3 de origem na região comercial para o AWS GovCloud (US) Region local em que você está executando uma DataSync tarefa. O bucket de origem é configurado como um local de armazenamento de objetos na AWS GovCloud (US) Region.
2 No AWS GovCloud (US) Region, os dados são transferidos por meio do DataSync agente na mesma VPC e sub-rede em que o endpoint do serviço VPC e as interfaces de rede estão localizados.
3 Transferências de dados para o bucket do S3 de destino na AWS GovCloud (US) Region. O bucket de destino é configurado como um local do Amazon S3 na AWS GovCloud (US) Region.

Você também pode usar essa mesma configuração para transferir a direção oposta da AWS GovCloud (US) Region para a região comercial.

Para criar seu DataSync agente
  1. Implante um EC2 agente da Amazon em seu AWS GovCloud (US) Region.

  2. Configure o agente para usar um endpoint de serviço da VPC.

  3. Ative o agente.

Se o conjunto de dados for altamente compactável, você poderá ter uma redução de custos se criar o agente em uma região comercial enquanto executa uma tarefa em uma AWS GovCloud (US) Region. Há necessidade de mais configuração do que o normal para criar esse agente, incluindo preparar o agente para uso em uma região comercial. Para obter informações sobre como criar um agente para essa configuração, consulte o AWS DataSync blog Mover dados para dentro e para fora AWS GovCloud (US) com.

Criação de um local de armazenamento de objetos para o bucket do S3

Você precisa de um local de armazenamento de objetos para o bucket do S3 que esteja na região em que você não está executando sua DataSync tarefa.

  1. Abra o AWS DataSync console em https://console.aws.amazon.com/datasync/.

  2. Verifique se você está na mesma região em que planeja executar a tarefa.

  3. No painel de navegação esquerdo, expanda Transferência de dados e escolha Locais e Criar local.

  4. Em Tipo de localização, escolha Armazenamento de objetos.

  5. Para Agentes, escolha o DataSync agente que você criou para essa transferência.

  6. Em Servidor, insira um endpoint do Amazon S3 para o bucket usando um dos seguintes formatos:

    • Bucket de região comercial: s3.your-region.amazonaws.com

    • Bucket de AWS GovCloud (US) Region : s3.your-gov-region.amazonaws.com

    Para obter uma lista dos endpoints do Amazon S3, consulte Referência geral da AWS.

  7. Em nome do bucket, insira o nome do bucket do S3.

  8. Em Pasta, insira um prefixo no bucket do S3 que DataSync lê ou grava (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  9. Selecione Exige credenciais e faça o seguinte:

    • Em Chave de acesso, insira a chave de acesso de um usuário do IAM que possa acessar o bucket.

    • Em Chave secreta, insira a mesma chave secreta do usuário do IAM.

  10. (Opcional) Escolha Adicionar tag para marcar sua localização.

    Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

  11. Escolha Criar local.

  1. Abra o AWS DataSync console em https://console.aws.amazon.com/datasync/.

  2. Verifique se você está na mesma região em que planeja executar a tarefa.

  3. No painel de navegação esquerdo, expanda Transferência de dados e escolha Locais e Criar local.

  4. Em Tipo de localização, escolha Armazenamento de objetos.

  5. Para Agentes, escolha o DataSync agente que você criou para essa transferência.

  6. Em Servidor, insira um endpoint do Amazon S3 para o bucket usando um dos seguintes formatos:

    • Bucket de região comercial: s3.your-region.amazonaws.com

    • Bucket de AWS GovCloud (US) Region : s3.your-gov-region.amazonaws.com

    Para obter uma lista dos endpoints do Amazon S3, consulte Referência geral da AWS.

  7. Em nome do bucket, insira o nome do bucket do S3.

  8. Em Pasta, insira um prefixo no bucket do S3 que DataSync lê ou grava (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  9. Selecione Exige credenciais e faça o seguinte:

    • Em Chave de acesso, insira a chave de acesso de um usuário do IAM que possa acessar o bucket.

    • Em Chave secreta, insira a mesma chave secreta do usuário do IAM.

  10. (Opcional) Escolha Adicionar tag para marcar sua localização.

    Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

  11. Escolha Criar local.

  1. Copie o seguinte comando create-location-object-storage:

    aws datasync create-location-object-storage \ --server-hostname s3-endpoint \ --bucket-name amzn-s3-demo-bucket \ --agent-arns arn:aws:datasync:your-region:123456789012:agent/agent-01234567890deadfb
  2. No parâmetro --server-hostname, especifique um endpoint do Amazon S3 para o bucket usando um dos seguintes formatos:

    • Bucket de região comercial: s3.your-region.amazonaws.com

    • Bucket de AWS GovCloud (US) Region : s3.your-gov-region.amazonaws.com

    Para a região no endpoint, certifique-se de especificar a mesma região em que você planeja executar a tarefa.

    Para obter uma lista dos endpoints do Amazon S3, consulte Referência geral da AWS.

  3. No parâmetro --bucket-name, especifique o nome do bucket do S3.

  4. Para o --agent-arns parâmetro, especifique o DataSync agente que você criou para essa transferência.

  5. No parâmetro --access-key, especifique a chave de acesso para um usuário do IAM que possa acessar o bucket.

  6. No parâmetro --secret-key, insira a mesma chave secreta do usuário do IAM.

  7. (Opcional) Para o --subdirectory parâmetro, especifique um prefixo no bucket do S3 que DataSync lê ou grava (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  8. (Opcional) No parâmetro --tags, especifique os pares chave-valor que representam as tags para o recurso do local.

    Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

  9. Execute o comando create-location-object-storage.

    Você recebe uma resposta que mostra o ARN do local que você acabou de criar.

    { "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef" }

  1. Copie o seguinte comando create-location-object-storage:

    aws datasync create-location-object-storage \ --server-hostname s3-endpoint \ --bucket-name amzn-s3-demo-bucket \ --agent-arns arn:aws:datasync:your-region:123456789012:agent/agent-01234567890deadfb
  2. No parâmetro --server-hostname, especifique um endpoint do Amazon S3 para o bucket usando um dos seguintes formatos:

    • Bucket de região comercial: s3.your-region.amazonaws.com

    • Bucket de AWS GovCloud (US) Region : s3.your-gov-region.amazonaws.com

    Para a região no endpoint, certifique-se de especificar a mesma região em que você planeja executar a tarefa.

    Para obter uma lista dos endpoints do Amazon S3, consulte Referência geral da AWS.

  3. No parâmetro --bucket-name, especifique o nome do bucket do S3.

  4. Para o --agent-arns parâmetro, especifique o DataSync agente que você criou para essa transferência.

  5. No parâmetro --access-key, especifique a chave de acesso para um usuário do IAM que possa acessar o bucket.

  6. No parâmetro --secret-key, insira a mesma chave secreta do usuário do IAM.

  7. (Opcional) Para o --subdirectory parâmetro, especifique um prefixo no bucket do S3 que DataSync lê ou grava (dependendo se o bucket é um local de origem ou destino).

    Atenção

    DataSync não é possível transferir objetos com um prefixo que comece com uma barra (/) ou inclua ///./, ou /../ padrões. Por exemplo:

    • /photos

    • photos//2006/January

    • photos/./2006/February

    • photos/../2006/March

  8. (Opcional) No parâmetro --tags, especifique os pares chave-valor que representam as tags para o recurso do local.

    Tags ajudam a gerenciar, filtrar e procurar recursos. Recomendamos criar uma etiqueta de nome para a sua localização.

  9. Execute o comando create-location-object-storage.

    Você recebe uma resposta que mostra o ARN do local que você acabou de criar.

    { "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef" }

Você pode usar esse local como origem ou destino para sua DataSync tarefa. Para o outro bucket do S3 nessa transferência, crie um local do Amazon S3.

Próximas etapas

Algumas das próximas etapas possíveis incluem:

  1. Se necessário, crie outro local. Para ter mais informações, consulte Para onde posso transferir meus dados com AWS DataSync?

  2. Defina as configurações da DataSync tarefa, como quais arquivos transferir, como lidar com metadados, entre outras opções.

  3. Defina um cronograma para sua DataSync tarefa.

  4. Configure o monitoramento para sua DataSync tarefa.

  5. Inicie a tarefa.

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.