Exportación e importación de datos de DynamoDB mediante AWS Data Pipeline - Amazon DynamoDB

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Exportación e importación de datos de DynamoDB mediante AWS Data Pipeline

Puede utilizar AWS Data Pipeline para exportar datos de una tabla de DynamoDB a un archivo de un bucket de Amazon S3 También puede utilizar la consola para importar datos de Amazon S3 a una tabla de DynamoDB, ya sea de la misma región de AWS o de otra.

nota

DynamoDB La consola ahora admite su propio Amazon S3 flujo de exportación a , pero no es compatible con el flujo de AWS Data Pipeline importación. Para obtener más información, consulte Exporting DynamoDB table data to Amazon S3 y la entrada de blog Export Amazon Table Data to Your Data Lake in Amazon S3 (DynamoDBExportar datos de tabla de Amazon a su lago de datos en Amazon S3), No Code Writing Required (No se requiere escritura de código).

La posibilidad de importar y exportar datos resulta útil en muchos casos. Por ejemplo, supongamos que deseamos mantener un conjunto de referencia de los datos para realizar pruebas. Podría colocar estos datos de referencia en una tabla de DynamoDB y exportarla a Amazon S3. A continuación, tras ejecutar una aplicación que modificase los datos de prueba, podría "restablecer" el conjunto de datos importando de nuevo los datos de referencia de Amazon S3 a la tabla de DynamoDB Otro ejemplo podría ser la eliminación accidental de los datos o incluso la ejecución por error de una operación DeleteTable En estos casos, podría restaurar los datos a partir de un archivo exportado previamente a Amazon S3. Incluso podría copiar los datos de una tabla de DynamoDB de una región de AWS, almacenarlos en Amazon S3 y, a continuación, importarlos de Amazon S3 a una tabla de DynamoDB idéntica de otra región. Así, las aplicaciones de la segunda región podría obtener acceso al punto de enlace de DynamoDB más próximo y utilizar su propia copia de los datos, con menos latencia de red.

importante

DynamoDB La característica de copia de seguridad y restauración es una característica completamente administrada. Puede realizar copias de seguridad de tablas de desde unos cuantos megabytes hasta cientos de terabytes de datos, sin que ello afecte al rendimiento y la disponibilidad de las aplicaciones de producción. Puede restaurar la tabla con un solo clic en la Consola de administración de AWS o con una única llamada a la API. Se recomienda encarecidamente utilizar la característica DynamoDBde copia de seguridad y restauración nativas de en lugar de utilizar AWS Data Pipeline. Para obtener más información, consulte Copia de seguridad bajo demanda y restauración para DynamoDB.

En el siguiente diagrama se muestra información general sobre la exportación e importación de datos de DynamoDB con AWS Data Pipeline.

Para exportar una tabla de DynamoDB, se utiliza la consola de AWS Data Pipeline para crear una nueva canalización. La canalización lanza un clúster de Amazon EMR para realizar la exportación propiamente dicha. Amazon EMR lee los datos de DynamoDB y los escribe en un archivo de exportación en un bucket de Amazon S3

El proceso es similar para la importación, salvo que los datos se leen en el bucket de Amazon S3 y se escriben en la tabla de DynamoDB

importante

Al exportar o importar datos de DynamoDB se devengan costos adicionales por los servicios de AWS subyacentes que se utilizan:

  • AWS Data Pipeline—: administra automáticamente el flujo de trabajo de importación/exportación.

  • Amazon S3— contiene los datos que exporta de DynamoDBo importa a DynamoDB.

  • Amazon EMR— ejecuta un clúster de Hadoop administrado para realizar lecturas y escrituras entre DynamoDB Amazon S3 La configuración del clúster es un m3.xlarge nodo de líder instancia y un nodo principal de m3.xlarge instancia.

Para obtener más información, consulte Precios de AWS Data Pipeline, Precios de Amazon EMR y Precios de Amazon S3.

Requisitos previos para exportar e importar datos

Cuando se utiliza AWS Data Pipeline para importar y exportar datos, se deben especificar las acciones que la canalización podrá realizar y los recursos que podrá consumir. Las acciones y los recursos permitidos se definen mediante roles de AWS Identity and Access ManagementIAM

También puede controlar el acceso creando IAM políticas de y asociándolas a IAM usuarios, roles o grupos de . Estas políticas permiten especificar qué usuarios están autorizados para importar y exportar los datos de DynamoDB

importante

El IAM usuario que realiza las exportaciones e importaciones debe tener un ID de clave de acceso de AWS y una clave secreta activos. Para obtener más información, consulte Administering Access Keys for IAM Users en la Guía del usuario de IAM.

Creación de funciones de IAM para AWS Data Pipeline

Para poder utilizar AWS Data Pipeline, los roles de IAM siguientes deben estar presentes en su cuenta de AWS:

  • DataPipelineDefaultRole — las acciones que la canalización puede realizar en su nombre.

  • DataPipelineDefaultResourceRole — los recursos de AWS que la canalización aprovisionará en su nombre. Para importar y exportar datos de DynamoDB, estos recursos incluyen un clúster de Amazon EMR y las instancias Amazon EC2 asociadas a él.

Si nunca ha utilizado AWS Data Pipeline , tendrá que crear DataPipelineDefaultRole y DataPipelineDefaultResourceRole usted mismo. Una vez que haya creado estos roles, podrá usarlos en cualquier momento para exportar o importar datos de DynamoDB

nota

Si ya había utilizado la AWS Data Pipeline consola de para crear una canalización, DataPipelineDefaultRole entonces y se DataPipelineDefaultResourceRole crearon automáticamente en ese momento. No es necesario que realice ninguna acción; puede omitir esta sección y comenzar a crear canalizaciones en la consola de DynamoDB Para obtener más información, consulte Exportación de datos de DynamoDB a Amazon S3 y Importación de datos de Amazon S3 a DynamoDB.

  1. Inicie sesión en la Consola de administración de AWS y abra la consola de IAM en https://console.aws.amazon.com/iam/.

  2. En el panel de la consola de IAM, haga clic en Roles (Roles).

  3. Haga clic en Create Role (Crear rol) y haga lo siguiente:

    1. En la entidad de confianza AWS Service (Servicio de AWS), elija Data Pipeline (Canalización de datos).

    2. En el panel Select your use case (Seleccione su caso de uso), elija Data Pipeline (Canalización de datos) y, a continuación, elija Next:Permissions (Siguiente:Permisos).

    3. Observe que la política AWSDataPipelineRole se asocia automáticamente. Elija Next: Review.

    4. En el campo Role name (Nombre de rol), escriba DataPipelineDefaultRole como nombre del rol y elija Create role (Crear rol).

  4. Haga clic en Create Role (Crear rol) y haga lo siguiente:

    1. En la entidad de confianza AWS Service (Servicio de AWS), elija Data Pipeline (Canalización de datos).

    2. En el panel Select your use case (Seleccione su caso de uso), elija EC2 Role for Data Pipeline (Rol de EC2 para canalización de datos) y, a continuación, elija Next:Permissions (Siguiente:Permisos).

    3. Observe que la política AmazonEC2RoleForDataPipelineRole se asocia automáticamente. Elija Next: Review.

    4. En el campo Role name (Nombre de rol), escriba DataPipelineDefaultResourceRole como nombre del rol y elija Create role (Crear rol).

Ahora que ha creado estos roles, puede comenzar a crear canalizaciones desde la consola de DynamoDB Para obtener más información, consulte Exportación de datos de DynamoDB a Amazon S3 y Importación de datos de Amazon S3 a DynamoDB.

Concesión de permisos a los usuarios y grupos de IAM para realizar tareas de exportación e importación

Si desea permitir que otros IAM usuarios, roles o grupos exporten e importen los datos de la DynamoDB tabla, puede crear una IAM política de y asociarla a los usuarios o grupos que designe. La política contiene únicamente los permisos necesarios para realizar estas tareas.

Conceder acceso completo

El siguiente procedimiento describe cómo asociar las políticas administradas de AWS AmazonDynamoDBFullAccessy una política AWSDataPipeline_FullAccess insertada a un Amazon EMR usuario deIAM . Estas políticas administradas por proporcionan acceso completo a AWS Data Pipeline y a DynamoDB los recursos de y se utilizan con la política Amazon EMR insertada para permitir al usuario realizar las acciones descritas en esta documentación.

nota

Para limitar el ámbito de los permisos sugeridos, la política insertada anterior está aplicando el uso de la etiqueta dynamodbdatapipeline. Si desea utilizar esta documentación sin esta limitación, puede eliminar la Condition sección de la política sugerida.

  1. Inicie sesión en la Consola de administración de AWS y abra la consola de IAM en https://console.aws.amazon.com/iam/.

  2. En el panel IAM de la consola de , haga clic en Users (Usuarios) y seleccione el usuario que desea modificar.

  3. En la pestaña Permissions (Permisos), haga clic en Add Policy (Añadir política).

  4. En el panel Attach permissions (Asociar permisos), haga clic en Attach existing policies directly (Asociar políticas existentes directamente).

  5. Seleccione y AmazonDynamoDBFullAccess AWSDataPipeline_FullAccess y haga clic en Next:Review (Siguiente: Revisar).

  6. Haga clic en Add permissions (Añadir permisos).

  7. Vuelva a la pestaña Permissions (Permisos), haga clic en Add inline policy (Añadir política insertada).

  8. En la página Create a policy (Crear una política), haga clic en la pestaña JSON.

  9. Pegue el contenido siguiente.

    { "Version": "2012-10-17", "Statement": [ { "Sid": "EMR", "Effect": "Allow", "Action": [ "elasticmapreduce:DescribeStep", "elasticmapreduce:DescribeCluster", "elasticmapreduce:RunJobFlow", "elasticmapreduce:TerminateJobFlows" ], "Resource": "*", "Condition": { "Null": { "elasticmapreduce:RequestTag/dynamodbdatapipeline": "false" } } } ] }
  10. Haga clic en Review policy (Revisar política).

  11. Escriba EMRforDynamoDBDataPipeline en el campo de nombre.

  12. Haga clic en Create policy (Crear política).

nota

Puede utilizar un procedimiento similar para asociar esta política administrada a un rol o grupo, en lugar de a un usuario.

Restricción del acceso a determinadas tablas de DynamoDB

Si desea restringir el acceso de forma que un usuario solo pueda exportar o importar un subconjunto de las tablas, tendrá que crear un documento de política de IAM personalizado. Puede utilizar el proceso descrito en Conceder acceso completo como punto de partida para su política personalizada y, a continuación, modificar la política para que un usuario solo pueda trabajar con las tablas que especifique.

Por ejemplo, supongamos que desea permitir a un IAM usuario de exportar e importar solo las tablas Forum, Thread y Reply. En este procedimiento se describe cómo crear una política personalizada para que un usuario pueda usar estas tablas, pero no las demás.

  1. Inicie sesión en la Consola de administración de AWS y abra la consola de IAM en https://console.aws.amazon.com/iam/.

  2. En el panel de la consola de IAM, haga clic en Policies (Políticas) y después en Create Policy (Crear política).

  3. En el panel Create Policy (Crear política), vaya a Copy an AWS Managed Policy (Copiar una política de AWS administrada) y haga clic en Select (Seleccionar).

  4. En el panel Copy an AWS Managed Policy (Copiar una política de AWS administrada), vaya a AmazonDynamoDBFullAccess y haga clic en Select (Seleccionar).

  5. En el panel Review Policy, haga lo siguiente:

    1. Revise los valores de Policy Name (Nombre de política) y Description (Descripción). generados automáticamente. Si lo desea, puede modificar estos valores.

    2. En el cuadro de texto Policy Document (Documento de política), edite la política para restringir el acceso a tablas específicas. De forma predeterminada, la política permite todas las acciones de DynamoDB en todas las tablas:

      { "Version": "2012-10-17", "Statement": [ { "Action": [ "cloudwatch:DeleteAlarms", "cloudwatch:DescribeAlarmHistory", "cloudwatch:DescribeAlarms", "cloudwatch:DescribeAlarmsForMetric", "cloudwatch:GetMetricStatistics", "cloudwatch:ListMetrics", "cloudwatch:PutMetricAlarm", "dynamodb:*", "sns:CreateTopic", "sns:DeleteTopic", "sns:ListSubscriptions", "sns:ListSubscriptionsByTopic", "sns:ListTopics", "sns:Subscribe", "sns:Unsubscribe" ], "Effect": "Allow", "Resource": "*", "Sid": "DDBConsole" }, ...remainder of document omitted...

      Para restringir la política, primero debe eliminar la siguiente línea:

      "dynamodb:*",

      A continuación, cree una nueva Action que permita el acceso solo a las tablas Forum, Thread y Reply:

      { "Action": [ "dynamodb:*" ], "Effect": "Allow", "Resource": [ "arn:aws:dynamodb:us-west-2:123456789012:table/Forum", "arn:aws:dynamodb:us-west-2:123456789012:table/Thread", "arn:aws:dynamodb:us-west-2:123456789012:table/Reply" ] },
      nota

      Sustituya us-west-2 por la región en la que residen sus tablas de DynamoDB Sustituya 123456789012 por el número de su cuenta de AWS.

      Por último, agregue la nueva instrucción Action al documento de política:

      { "Version": "2012-10-17", "Statement": [ { "Action": [ "dynamodb:*" ], "Effect": "Allow", "Resource": [ "arn:aws:dynamodb:us-west-2:123456789012:table/Forum", "arn:aws:dynamodb:us-west-2:123456789012:table/Thread", "arn:aws:dynamodb:us-west-2:123456789012:table/Reply" ] }, { "Action": [ "cloudwatch:DeleteAlarms", "cloudwatch:DescribeAlarmHistory", "cloudwatch:DescribeAlarms", "cloudwatch:DescribeAlarmsForMetric", "cloudwatch:GetMetricStatistics", "cloudwatch:ListMetrics", "cloudwatch:PutMetricAlarm", "sns:CreateTopic", "sns:DeleteTopic", "sns:ListSubscriptions", "sns:ListSubscriptionsByTopic", "sns:ListTopics", "sns:Subscribe", "sns:Unsubscribe" ], "Effect": "Allow", "Resource": "*", "Sid": "DDBConsole" }, ...remainder of document omitted...
  6. Cuando esté conforme con los ajustes de la política, haga clic en Create Policy (Crear política).

Una vez que haya creado la política, puede adjuntársela a un usuario de IAM

  1. En el panel IAM de la consola de , haga clic en Users (Usuarios) y seleccione el usuario que desea modificar.

  2. En la pestaña Permissions (Permisos), haga clic en Attach Policy (Asociar política).

  3. En el panel Attach Policy (Asociar política), seleccione el nombre de la política que desee y haga clic en Attach Policy (Asociar política).

nota

Puede utilizar un procedimiento similar para asociar su política a un rol o grupo, en lugar de a un usuario.

Exportación de datos de DynamoDB a Amazon S3

En esta sección se describe cómo exportar los datos de una o varias tablas de DynamoDB a un bucket de Amazon S3 Debe crear previamente el bucket de Amazon S3 para poder realizar la exportación.

importante

Si nunca había utilizado AWS Data Pipeline, tendrá que configurar dos roles de IAM antes de seguir este procedimiento. Para obtener más información, consulte Creación de funciones de IAM para AWS Data Pipeline.

  1. Sign in to the Consola de administración de AWS and open the AWS Data Pipeline console at https://console.aws.amazon.com/datapipeline/.

  2. Si aún no dispone de ninguna canalización en la región de AWS actual, elija Get started now (Comenzar ahora).

    De lo contrario, si ya dispone de al menos una canalización, elija Create new pipeline (Crear nueva canalización).

  3. En la página Create Pipeline (Crear canalización), haga lo siguiente:

    1. En el campo Name, escriba un nombre para la canalización. Por ejemplo: MyDynamoDBExportPipeline.

    2. Para el parámetro Source (Origen), seleccione Build using a template (Construir utilizando una plantilla). En la lista desplegable de plantillas, elija Export table to S3 (Exportar DynamoDB tabla a S3).

    3. En el campo Source DynamoDB table name, escriba el nombre de la DynamoDB tabla que desea exportar.

    4. En el cuadro de texto Output S3 Folder (Carpeta S3 de salida), escriba el Amazon S3 URI de en el que se escribirá el archivo de exportación. Por ejemplo: s3://mybucket/exports

      El formato de este URI es s3://bucketname/folder, donde:

      • bucketname es el nombre del bucket de Amazon S3

      • folder es el nombre de una carpeta de ese bucket. Si la carpeta no existe, se creará automáticamente. Si no especifica el nombre de la carpeta, se le asignará un nombre con este formato: s3://bucketname/region/tablename.

    5. En el cuadro de texto S3 location for logs (Ubicación de S3 para logs), escriba el Amazon S3 URI de en el que se escribirá el archivo log de la exportación. Por ejemplo: s3://mybucket/logs/

      El formato del URI de S3 Log Folder (Carpeta de registro de S3) es el mismo que el de Output S3 Folder (Carpeta S3 de salida). El URI debe resolverse en una carpeta; los archivos log no se pueden escribir en el nivel superior del bucket de S3.

  4. Añada una etiqueta con la clave dynamodbdatapipeline y el valor true.

  5. Cuando esté conforme con la configuración, haga clic en Activate (Activar).

Se creará la canalización; este proceso puede tardar varios minutos en completarse. Puede monitorizar el progreso en la consola de AWS Data Pipeline

Una vez finalizada la exportación, puede ir a la Amazon S3 consola de para ver el archivo exportado. El nombre del archivo de salida es un valor de identificador sin extensión, como este ejemplo: ae10f955-fb2f-4790-9b11-fbfea01a871e_000000. El formato interno de este archivo se describe en Verify Data Export File en la Guía para desarrolladores de AWS Data Pipeline .

Importación de datos de Amazon S3 a DynamoDB

En esta sección se da por hecho que ya ha exportado datos de una tabla de DynamoDB y que el archivo de exportación se ha escrito en el bucket de Amazon S3 El formato interno de este archivo se describe en Verify the Data Export File (Verificar el archivo de exportación de datos) en la Guía para desarrolladores de AWS Data Pipeline. Tenga en cuenta que este es el único formato de archivo que DynamoDB puede importar con AWS Data Pipeline.

Utilizaremos el término tabla de origen para la tabla original desde la que se exportaron los datos y tabla de destino para la tabla que recibirá los datos importados. Puede importar datos de un archivo de exportación de Amazon S3, siempre y cuando se cumplan todas las condiciones siguientes:

  • La tabla de destino ya exista, porque el proceso de importación no creará la tabla.

  • La tabla de destino tenga el mismo esquema de claves que la tabla de origen.

La tabla de destino no tiene que estar vacía. Sin embargo, el proceso de importación reemplazará los elementos de datos de la tabla que tengan las mismas claves que los elementos del archivo de exportación. Por ejemplo, supongamos que tiene una tabla denominada Customer con la clave CustomerIdy que la tabla solo contiene tres elementos (CustomerId 1, 2 y 3). Si el archivo de exportación también contiene elementos de datos para CustomerID 1, 2 y 3, los elementos de la tabla de destino se sustituirán por los del archivo de exportación. Si el archivo de exportación también contiene un elemento de datos para CustomerId 4, dicho elemento se añadirá a la tabla.

La tabla de destino puede estar en una región de AWS diferente. Por ejemplo, supongamos que tiene una tabla denominada Customer en la región EE.UU. Oeste (Oregón) y exporta sus datos a Amazon S3. A continuación, podría importar esos datos en una tabla Customer idéntica de la Europa (Irlanda) región . Esto se denomina exportación e importación entre regiones. Para obtener una lista de las regiones de AWS, visite Regiones y puntos de enlace en la AWS General Reference.

Tenga en cuenta que la Consola de administración de AWS le permite exportar varias tablas de origen a la vez. Sin embargo, solo se pueden importar de una en una.

  1. Sign in to the Consola de administración de AWS and open the AWS Data Pipeline console at https://console.aws.amazon.com/datapipeline/.

  2. (Opcional) Si desea realizar una importación entre regiones, vaya a la esquina superior derecha de la ventana y elija la región de destino.

  3. Elija Create new pipeline (Crear nueva canalización).

  4. En la página Create Pipeline (Crear canalización), haga lo siguiente:

    1. En el campo Name, escriba un nombre para la canalización. Por ejemplo: MyDynamoDBImportPipeline.

    2. Para el parámetro Source (Origen), seleccione Build using a template (Construir utilizando una plantilla). En la lista desplegable de plantillas, elija Import backup data from S3 (DynamoDBImportar datos de copia de seguridad de S3).

    3. En el cuadro de texto Input S3 Folder (Carpeta S3 de entrada), escriba el Amazon S3 URI de donde se puede encontrar el archivo de exportación. Por ejemplo: s3://mybucket/exports

      El formato de este URI es s3://bucketname/folder, donde:

      • bucketname es el nombre del bucket de Amazon S3

      • folder es el nombre de la carpeta que contiene el archivo de exportación.

      El trabajo de importación esperará encontrar un archivo en la ubicación de Amazon S3 especificada. El formato interno del archivo se describe en Verify the Data Export File (Verificar el archivo de exportación de datos) en la Guía para desarrolladores de AWS Data Pipeline.

    4. En el campo Target DynamoDB table name, escriba el nombre de la DynamoDB tabla a la que desea importar los datos.

    5. En el cuadro de texto S3 location for logs (Ubicación de S3 para logs), escriba el Amazon S3 URI de en el que se escribirá el archivo log de la importación. Por ejemplo: s3://mybucket/logs/

      El formato del URI de S3 Log Folder (Carpeta de registro de S3) es el mismo que el de Output S3 Folder (Carpeta S3 de salida). El URI debe resolverse en una carpeta; los archivos log no se pueden escribir en el nivel superior del bucket de S3.

    6. Añada una etiqueta con la clave dynamodbdatapipeline y el valor true.

  5. Cuando esté conforme con la configuración, haga clic en Activate (Activar).

Se creará la canalización; este proceso puede tardar varios minutos en completarse. El trabajo de importación comenzará inmediatamente después de que se cree la canalización.

Troubleshooting

En esta sección se explican algunos modos de error básicos y cómo solucionar problemas con las exportaciones en DynamoDB

Si se produce un error durante una exportación o importación, el estado de la canalización en la AWS Data Pipeline consola se mostrará como ERROR. Si esto ocurre, haga clic en el nombre de la canalización con error para ir a su página de detalles. Aparecerá información sobre todos los pasos de la canalización y el estado de cada uno de ellos. En particular, examine todos los seguimientos del stack de ejecución que observe.

Por último, vaya al bucket de Amazon S3 y busque los archivos log de importación o exportación que se hayan escrito en él.

A continuación se indican algunos problemas comunes que pueden provocar errores en una canalización, acompañados de acciones correctivas. Para diagnosticar la canalización, compare los errores que ha observado con los problemas que se indican a continuación.

  • Si se trata de una importación, asegúrese de que la tabla de destino ya exista y de que esta última tenga el mismo esquema de claves que la tabla de origen. Estas condiciones son imprescindibles y, si no se cumplen, la importación no se podrá realizar.

  • Asegúrese de que la canalización tiene la etiqueta dynamodbdatapipeline; de lo contrario, las llamadas a la Amazon EMR API no se realizarán correctamente.

  • Asegúrese de que el bucket de Amazon S3 especificado se haya creado y de que dispone de permisos de lectura y escritura para él.

  • La canalización podría haber superado su tiempo de ejecución. (Establece este parámetro cuando crea la canalización). Por ejemplo, es posible que haya establecido el tiempo de espera de ejecución en 1 hora, pero que el trabajo de exportación haya requerido más tiempo. Pruebe a eliminar y volver a crear la canalización, pero esta vez con más tiempo de ejecución.

  • Actualice el archivo de manifiesto si realiza la restauración desde un bucket de Amazon S3 que no es el bucket original con el que se realizó la exportación (contiene una copia de la exportación).

  • Es posible que no disponga de los permisos adecuados para realizar una importación o exportación. Para obtener más información, consulte Requisitos previos para exportar e importar datos.

  • Es posible que haya alcanzado una cuota de recursos en su cuenta de AWS, como el número máximo de instancias Amazon EC2 o de canalizaciones de AWS Data Pipeline Para obtener más información, incluso sobre cómo solicitar un aumento de estas cuotas, consulte Cuotas de servicios de AWS en la AWS General Reference.

nota

Para obtener más información sobre cómo solucionar problemas en una canalización, visite Solución de problemas en la Guía para desarrolladores de AWS Data Pipeline.

Plantillas predefinidas para AWS Data Pipeline y DynamoDB

Si desea comprender mejor el funcionamiento de AWS Data Pipeline, recomendamos consultar la Guía para desarrolladores de AWS Data Pipeline. Esta guía contiene tutoriales paso a paso para crear canalizaciones y trabajar con ellas. Puede utilizar estos tutoriales como punto de partida para crear sus propias canalizaciones. Recomendamos leer el tutorial de AWS Data Pipeline, que recorre uno a uno los pasos necesarios para crear una canalización de exportación e importación que puede personalizar de acuerdo con sus requisitos. Consulte Tutorial: Tutorial: importación y exportación de Amazon DynamoDB utilizando AWS Data Pipeline en la Guía para desarrolladores de AWS Data Pipeline.

AWS Data Pipeline ofrece varias plantillas para crear canalizaciones; las siguientes son pertinentes para DynamoDB.

Exportación de datos entre DynamoDB y Amazon S3

nota

DynamoDB La consola ahora admite su propio Amazon S3 flujo de exportación a , pero no es compatible con el flujo de AWS Data Pipeline importación. Para obtener más información, consulte Exporting DynamoDB table data to Amazon S3 y la publicación del blog Exportar datos de DynamoDB tabla de Amazon a su lago de datos en Amazon S3 No se requiere escritura de código.

La consola de AWS Data Pipeline ofrece dos plantillas predefinidas para exportar datos entre DynamoDB y Amazon S3. Para obtener más información sobre estas plantillas, consulte las secciones siguientes de la Guía para desarrolladores de AWS Data Pipeline: