Importación y exportación de datos de DynamoDB medianteAWS Data Pipeline - Amazon DynamoDB

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Importación y exportación de datos de DynamoDB medianteAWS Data Pipeline

Puede usarAWS Data PipelinePara exportar datos de una tabla de DynamoDB a un archivo de un bucket de Amazon S3. También puede utilizar la consola para importar datos de Amazon S3 a una tabla de DynamoDB, en la mismaAWSregión o en una región diferente.

nota

DynamoDB Console ahora admite su propio flujo de exportación a Amazon S3, sin embargo, no es compatible conAWS Data Pipelineflujo de importación. Para obtener más información, consulteExportación de datos de tablas de DynamoDB a Amazon S3y la publicación del blogExportar datos de tabla de Amazon DynamoDB a su Data Lake en Amazon S3, sin necesidad de escribir código.

La posibilidad de importar y exportar datos resulta útil en muchos casos. Por ejemplo, supongamos que deseamos mantener un conjunto de referencia de los datos para realizar pruebas. Podría colocar estos datos de referencia en una tabla de DynamoDB y exportarla a Amazon S3. A continuación, tras ejecutar una aplicación que modificase los datos de prueba, podría «restablecer» el conjunto de datos importando de nuevo los datos de referencia de Amazon S3 a la tabla de DynamoDB. Otro ejemplo podría ser la eliminación accidental de los datos o incluso la ejecución por error de una operación DeleteTable. En estos casos, podría restaurar los datos a partir de un archivo exportado previamente a Amazon S3. Incluso puede copiar datos de una tabla de DynamoDB en unaAWSA continuación, almacene los datos en Amazon S3 y, a continuación, importen los datos de Amazon S3 a una tabla de DynamoDB idéntica de otra región. Así, las aplicaciones de la segunda región podría obtener acceso al punto de enlace de DynamoDB más próximo y utilizar su propia copia de los datos, con menos latencia de red.

importante

DynamoDB Backup and Restore es una característica totalmente administrada. Puede crear backup de las tablas que ocupen desde unos pocos megabytes a cientos de terabytes de datos, sin impacto alguno en el rendimiento y la disponibilidad de las aplicaciones de producción. Puede restaurar la tabla con un solo clic en el menúAWS Management Consoleo una sola llamada de API. Le recomendamos encarecidamente que utilice la función de copia de seguridad y restauración nativa de DynamoDB en lugar de utilizarAWS Data Pipeline. Para obtener más información, consulte Backup bajo demanda y restauración para DynamoDB.

En el siguiente diagrama se muestra información general sobre la exportación e importación de datos de DynamoDB medianteAWS Data Pipeline.

Para exportar una tabla de DynamoDB, utilice laAWS Data Pipelinepara crear una nueva canalización. La canalización lanza un clúster de Amazon EMR para realizar la exportación propiamente dicha. Amazon EMR lee los datos de DynamoDB y los escribe en un archivo de exportación de un bucket de Amazon S3.

El proceso es similar para la importación, salvo que los datos se leen en el bucket de Amazon S3 y se escriben en la tabla de DynamoDB.

importante

Al exportar o importar datos de DynamoDB, se devengan costos adicionales por elAWSservicios que se utilizan:

  • AWS Data Pipeline: administra automáticamente el flujo de trabajo de importación/exportación.

  • Amazon S3: contiene los datos que se exportan desde DynamoDB o se importan a DynamoDB.

  • Amazon EMR: ejecuta un clúster administrado de Hadoop para realizar lecturas y escrituras entre DynamoDB y Amazon S3. La configuración del clúster es unam3.xlargenodo de directriz de instancia y unm3.xlargenodo principal de instancia de.

Para obtener más información, consulteAWS Data PipelinePrecios,Precios de Amazon EMR, yPrecios de Amazon S3.

Requisitos previos para exportar e importar datos

Cuando se utiliza AWS Data Pipeline para importar y exportar datos, se deben especificar las acciones que la canalización podrá realizar y los recursos que podrá consumir. Las acciones y los recursos permitidos se definen medianteAWS Identity and Access Management(IAM).

También puede controlar el acceso creando políticas de IAM y adjuntándolas a usuarios, roles o grupos de IAM. Estas políticas permiten especificar qué usuarios están autorizados para importar y exportar los datos de DynamoDB.

importante

El usuario de IAM que lleva a cabo las importaciones y exportaciones debe tener unactive (activa) AWSId. de clave de acceso y clave secreta. Para obtener más información, consulte Administering Access Keys for IAM Users en la Guía del usuario de IAM.

Creación de roles de IAM paraAWS Data Pipeline

Para usarAWS Data Pipeline, los roles de IAM de siguientes deben estar presentes en suAWSCuenta de:

  • DataPipelineDefaultRole: las acciones que la canalización puede llevar a cabo automáticamente.

  • DataPipelineDefaultResourceRole— elAWSLos recursos que la canalización provisionará en su nombre. Para importar y exportar datos de DynamoDB, estos recursos incluyen un clúster de Amazon EMR y las instancias de Amazon EC2 asociadas a él.

Si nunca había utilizado AWS Data Pipeline, deberá crear manualmente DataPipelineDefaultRole y DataPipelineDefaultResourceRole. Una vez que haya creado estos roles, podrá usarlos en cualquier momento para exportar o importar datos de DynamoDB.

nota

Si ya había utilizado la consola de AWS Data Pipeline para crear una canalización, entonces DataPipelineDefaultRole y DataPipelineDefaultResourceRole se crearon automáticamente en ese momento. No es necesario que realice ninguna acción; puede omitir esta sección y comenzar a crear canalizaciones en la consola de DynamoDB. Para obtener más información, consulte Exportación de datos de DynamoDB a Amazon S3 y Importación de datos de Amazon S3 a DynamoDB.

  1. Inicie sesión en la AWS Management Console y abra la consola de IAM en https://console.aws.amazon.com/iam/.

  2. En el panel de la consola de IAM, haga clic enRoles de.

  3. Haga clic en Create Role (Crear rol) y realice las siguientes operaciones:

    1. En el navegadorAWSService (Servicio)Entidad de confianza, elijaData Pipeline.

    2. En el panel Select your use case (Seleccione su caso de uso), elija Data Pipeline (Canalización de datos) y, a continuación, elija Next:Permissions (Siguiente:Permisos).

    3. Observe que la política AWSDataPipelineRole se asocia automáticamente. Elija Next: Review.

    4. En el campo Role name (Nombre de rol), escriba DataPipelineDefaultRole como nombre del rol y elija Create role (Crear rol).

  4. Haga clic en Create Role (Crear rol) y realice las siguientes operaciones:

    1. En el navegadorAWSService (Servicio)Entidad de confianza, elijaData Pipeline.

    2. En el panel Select your use case (Seleccione su caso de uso), elija EC2 Role for Data Pipeline (Rol de EC2 para canalización de datos) y, a continuación, elija Next:Permissions (Siguiente:Permisos).

    3. Observe que la política AmazonEC2RoleForDataPipelineRole se asocia automáticamente. Elija Next: Review.

    4. En el campo Role name (Nombre de rol), escriba DataPipelineDefaultResourceRole como nombre del rol y elija Create role (Crear rol).

Ahora que ha creado estos roles, puede comenzar a crear canalizaciones desde la consola de DynamoDB. Para obtener más información, consulte Exportación de datos de DynamoDB a Amazon S3 y Importación de datos de Amazon S3 a DynamoDB.

Concesión de permisos a los usuarios y grupos de IAM para realizar tareas de exportación e importación

Si desea permitir que otros usuarios, roles o grupos de IAM importen y exporten los datos de sus tablas de DynamoDB, puede crear una política de IAM y adjuntársela a los usuarios o grupos que designe. La política contiene únicamente los permisos necesarios para realizar estas tareas.

Conceder acceso completo

En el siguiente procedimiento se describe cómo adjuntar elAWSPolíticas administradas porAmazonDynamoDBFullAccess,AWSDataPipeline_FullAccessy una política en línea de Amazon EMR a un usuario de IAM. Estas políticas administradas proporcionan acceso completo aAWS Data Pipeliney a los recursos de DynamoDB, y utilizados con la política en línea de Amazon EMR, permiten al usuario realizar las acciones descritas en esta documentación.

nota

Para limitar el alcance de los permisos sugeridos, la directiva en línea anterior aplica el uso de la etiquetadynamodbdatapipeline. Si desea utilizar esta documentación sin esta limitación, puede eliminar laConditionde la política sugerida.

  1. Inicie sesión en la AWS Management Console y abra la consola de IAM en https://console.aws.amazon.com/iam/.

  2. En el panel de la consola de IAM, haga clic enUsuarios dey seleccione el usuario que desee modificar.

  3. En el navegadorPermisos, haga clic en.Agregar directiva.

  4. En el navegadorAsociación de permisos, haga clic en.Asociar políticas existentes directamente.

  5. Seleccione ambosAmazonDynamoDBFullAccessyAWSDataPipeline_FullAccessy haga clic enNext:Review.

  6. Haga clic enAdición de permisos.

  7. Back onPermisos, haga clic en.Incorporación de política insertada.

  8. En el navegadorCrear una política., haga clic en.JSONpestaña.

  9. Pegue el contenido de abajo.

    { "Version": "2012-10-17", "Statement": [ { "Sid": "EMR", "Effect": "Allow", "Action": [ "elasticmapreduce:DescribeStep", "elasticmapreduce:DescribeCluster", "elasticmapreduce:RunJobFlow", "elasticmapreduce:TerminateJobFlows" ], "Resource": "*", "Condition": { "Null": { "elasticmapreduce:RequestTag/dynamodbdatapipeline": "false" } } } ] }
  10. Haga clic enReview policy.

  11. TipoEMRforDynamoDBDataPipelineen el campo de nombre.

  12. Haga clic enCrear política.

nota

Puede utilizar un procedimiento similar para adjuntar esta política administrada a un rol o grupo, en lugar de a un usuario.

Restricción del acceso a determinadas tablas de DynamoDB

Si desea restringir el acceso de forma que un usuario solo pueda exportar o importar un subconjunto de las tablas, tendrá que crear un documento de política de IAM personalizado. Puede utilizar el proceso descrito enConceder acceso completoComo punto de partida para la política personalizada y, a continuación, modificarla para permitir que un usuario solo pueda trabajar con las tablas que especifique.

Por ejemplo, supongamos que desea permitir que un usuario de IAM exporte e importe solamente elForum,Thread, yRespondertablas de. En este procedimiento se describe cómo crear una política personalizada para que un usuario pueda usar estas tablas, pero no las demás.

  1. Inicie sesión en la AWS Management Console y abra la consola de IAM en https://console.aws.amazon.com/iam/.

  2. En el panel de la consola de IAM, haga clic enPolíticasy haga clic en.Creación de política de.

  3. En el navegadorCreación de política de, vaya aCopiar unaAWSPolítica administrada dey haga clic enSelect.

  4. En el navegadorCopiar unaAWSPolítica administrada de, vaya aAmazonDynamoDBFullAccessy haga clic enSelect.

  5. En el panel Review Policy (Revisar política) haga lo siguiente:

    1. Revise los valores de Policy Name (Nombre de política) y Description (Descripción) generados automáticamente. Si lo desea, puede modificar estos valores.

    2. En el cuadro de texto Policy Document (Documento de política), edite la política para restringir el acceso a determinadas tabla. De forma predeterminada, la política permite todas las acciones de DynamoDB en todas las tablas:

      { "Version": "2012-10-17", "Statement": [ { "Action": [ "cloudwatch:DeleteAlarms", "cloudwatch:DescribeAlarmHistory", "cloudwatch:DescribeAlarms", "cloudwatch:DescribeAlarmsForMetric", "cloudwatch:GetMetricStatistics", "cloudwatch:ListMetrics", "cloudwatch:PutMetricAlarm", "dynamodb:*", "sns:CreateTopic", "sns:DeleteTopic", "sns:ListSubscriptions", "sns:ListSubscriptionsByTopic", "sns:ListTopics", "sns:Subscribe", "sns:Unsubscribe" ], "Effect": "Allow", "Resource": "*", "Sid": "DDBConsole" }, ...remainder of document omitted...

      Para restringir la política, primero debe eliminar la siguiente línea:

      "dynamodb:*",

      A continuación, construya una nueva instrucción Action que permita obtener acceso solamente a las tablas Forum, Thread y Reply:

      { "Action": [ "dynamodb:*" ], "Effect": "Allow", "Resource": [ "arn:aws:dynamodb:us-west-2:123456789012:table/Forum", "arn:aws:dynamodb:us-west-2:123456789012:table/Thread", "arn:aws:dynamodb:us-west-2:123456789012:table/Reply" ] },
      nota

      Reemplazarus-west-2con la región en la que residen sus tablas de DynamoDB. Sustituya 123456789012 por su nombre de cuenta de AWS.

      Por último, agregue la nueva instrucción Action al documento de política:

      { "Version": "2012-10-17", "Statement": [ { "Action": [ "dynamodb:*" ], "Effect": "Allow", "Resource": [ "arn:aws:dynamodb:us-west-2:123456789012:table/Forum", "arn:aws:dynamodb:us-west-2:123456789012:table/Thread", "arn:aws:dynamodb:us-west-2:123456789012:table/Reply" ] }, { "Action": [ "cloudwatch:DeleteAlarms", "cloudwatch:DescribeAlarmHistory", "cloudwatch:DescribeAlarms", "cloudwatch:DescribeAlarmsForMetric", "cloudwatch:GetMetricStatistics", "cloudwatch:ListMetrics", "cloudwatch:PutMetricAlarm", "sns:CreateTopic", "sns:DeleteTopic", "sns:ListSubscriptions", "sns:ListSubscriptionsByTopic", "sns:ListTopics", "sns:Subscribe", "sns:Unsubscribe" ], "Effect": "Allow", "Resource": "*", "Sid": "DDBConsole" }, ...remainder of document omitted...
  6. Cuando esté conforme con los ajustes de la política, haga clic en Create Policy (Crear política).

Una vez que haya creado la política, puede adjuntársela a un usuario de IAM.

  1. En el panel de la consola de IAM, haga clic enUsuarios dey seleccione el usuario que desee modificar.

  2. En la pestaña Permissions (Permisos), haga clic en Attach Policy (Asociar política).

  3. En el panel Attach Policy (Asociar política), seleccione el nombre de la política que desee y haga clic en Attach Policy (Asociar política).

nota

Puede utilizar un procedimiento similar para adjuntar su política a un rol o grupo, en lugar de a un usuario.

Exportación de datos de DynamoDB a Amazon S3

En esta sección se describe cómo exportar los datos de una o varias tablas de DynamoDB a un bucket de Amazon S3. Debe crear previamente el bucket de Amazon S3 para poder realizar la exportación.

importante

Si nunca ha usadoAWS Data PipelineAntes de seguir este procedimiento, tendrá que configurar dos roles de IAM. Para obtener más información, consulte Creación de roles de IAM paraAWS Data Pipeline.

  1. Inicie sesión en el iconoAWS Management Consoley abra el iconoAWS Data Pipelineconsola de enhttps://console.aws.amazon.com/datapipeline/.

  2. Si no tiene ninguna canalización en laAWSregión de, elijaComenzar ahora.

    De lo contrario, si ya dispone de al menos una canalización, elija Create new pipeline (Crear nueva canalización).

  3. En la página Create Pipeline (Crear canalización), proceda del modo siguiente:

    1. En el campo Name (Nombre), escriba el nombre de la canalización. Por ejemplo: MyDynamoDBExportPipeline.

    2. Para el parámetro Source (Origen), seleccione Build using a template (Construir utilizando una plantilla). En la lista desplegable de plantillas, seleccione Export DynamoDB table to S3 (Exportar tabla de DynamoDB a S3).

    3. En el navegadorNombre de la tabla de DynamoDB, escriba el nombre de la tabla de DynamoDB que desee exportar.

    4. En el navegadorOutput S3 folderEn el cuadro de texto, escriba el URI de Amazon S3 en el que se escribirá el archivo de exportación. Por ejemplo: s3://mybucket/exports

      El formato de este URI es s3://bucketname/folder, donde:

      • bucketnamees el nombre del bucket de Amazon S3.

      • folder es el nombre de una carpeta de ese bucket. Si la carpeta no existe, se creará automáticamente. Si no especifica el nombre de la carpeta, se le asignará un nombre con este formato: s3://bucketname/region/tablename.

    5. En el navegadorUbicación de S3 para registrosEn el que se escribirá el archivo log de la exportación, escriba el URI de Amazon S3. Por ejemplo: s3://mybucket/logs/

      El formato del URI de S3 Log Folder (Carpeta de registro de S3) es el mismo que el de Output S3 Folder (Carpeta S3 de salida). El URI debe resolverse en una carpeta; los archivos log no se pueden escribir en el nivel superior del bucket de S3.

  4. Agregar una etiqueta con la clavedynamodbdatapipeliney el Valortrue.

  5. Cuando esté conforme con la configuración, haga clic en Activate (Activar).

Se creará la canalización; este proceso puede tardar varios minutos en completarse. Puede monitorizar el progreso en la consola de AWS Data Pipeline.

Cuando la exportación haya finalizado, puede ir a laConsola de Amazon S3para ver el archivo de exportación. El nombre del archivo de salida es un valor de identificador sin extensión, como en este ejemplo: ae10f955-fb2f-4790-9b11-fbfea01a871e_000000. El formato interno de este archivo se describe enVerificar archivo de exportación de datosen laAWS Data PipelineGuía para desarrolladores.

Importación de datos de Amazon S3 a DynamoDB

En esta sección se da por hecho que ya ha exportado datos de una tabla de DynamoDB y que el archivo de exportación se ha escrito en el bucket de Amazon S3. El formato interno de este archivo se describe enVerificar archivo de exportación de datosen laAWS Data PipelineGuía para desarrolladores. Tenga en cuenta que este es elSoloformato de archivo que DynamoDB puede importar conAWS Data Pipeline.

Vamos a utilizar el término tabla de origen para referirnos a la tabla original desde la que se han exportado los datos y tabla de destino para referirnos a la tabla que recibirá los datos importados. Puede importar datos de un archivo de exportación de Amazon S3, siempre y cuando se cumplan todas las condiciones siguientes:

  • La tabla de destino ya exista, porque el proceso de importación no creará la tabla.

  • La tabla de destino tenga el mismo esquema de claves que la tabla de origen.

La tabla de destino no tiene que estar vacía. Sin embargo, el proceso de importación reemplazará los elementos de datos de la tabla que tengan las mismas claves que los elementos del archivo de exportación. Por ejemplo, supongamos que tenemos una tabla denominada Customer con la clave CustomerId y que la tabla solo contiene tres elementos (CustomerId 1, 2 y 3). Si el archivo de exportación contiene también elementos de datos para CustomerID 1, 2 y 3, los elementos de la tabla de destino se sustituirán por los del archivo de exportación. Si el archivo de exportación contiene también un elemento de datos para CustomerId 4, entonces este se agregará a la tabla.

La tabla de destino puede estar en unaAWSregion. Por ejemplo, supongamos que tiene unCustomerEn la región EE. UU. Oeste (Oregón) y exporte sus datos a Amazon S3. Podría importar esos datos a unCustomerEn la región UE (Irlanda). Esto se denomina exportación e importación entre regiones. Para obtener una lista deAWSregiones de, vaya aRegiones y puntos de enlace deen laAWSReferencia general de.

Tenga en cuenta que la AWS Management Console le permite exportar varias tablas de origen a la vez. Sin embargo, solo se pueden importar de una en una.

  1. Inicie sesión en el iconoAWS Management Consoley abra el iconoAWS Data Pipelineconsola de enhttps://console.aws.amazon.com/datapipeline/.

  2. (Opcional) Si desea realizar una importación entre regiones, vaya a la esquina superior derecha de la ventana y elija la región de destino.

  3. Elija Create new pipeline (Crear nueva canalización).

  4. En la página Create Pipeline (Crear canalización), proceda del modo siguiente:

    1. En el campo Name (Nombre), escriba el nombre de la canalización. Por ejemplo: MyDynamoDBImportPipeline.

    2. Para el parámetro Source (Origen), seleccione Build using a template (Construir utilizando una plantilla). En la lista desplegable de plantillas, seleccione Import DynamoDB backup data from S3 (Importar datos de copia de seguridad de DynamoDB desde S3).

    3. En el navegadorInput S3 folderEn el cuadro de texto, escriba el URI de Amazon S3 en el que se encuentre el archivo de exportación. Por ejemplo: s3://mybucket/exports

      El formato de este URI es s3://bucketname/folder, donde:

      • bucketnamees el nombre del bucket de Amazon S3.

      • folder es el nombre de la carpeta que contiene el archivo de exportación.

      El trabajo de importación esperará encontrar un archivo en la ubicación de Amazon S3 especificada. El formato interno del archivo se describe enVerificar archivo de exportación de datosen laAWS Data PipelineGuía para desarrolladores.

    4. En el navegadorNombre de tabla de DynamoDB destinoEn el campo de, escriba el nombre de la tabla de DynamoDB a la que desee importar los datos.

    5. En el navegadorUbicación de S3 para registrosEn el que se escribirá el archivo log de la importación, escriba el URI de Amazon S3. Por ejemplo: s3://mybucket/logs/

      El formato del URI de S3 Log Folder (Carpeta de registro de S3) es el mismo que el de Output S3 Folder (Carpeta S3 de salida). El URI debe resolverse en una carpeta; los archivos log no se pueden escribir en el nivel superior del bucket de S3.

    6. Agregar una etiqueta con la clavedynamodbdatapipeliney el Valortrue.

  5. Cuando esté conforme con la configuración, haga clic en Activate (Activar).

Se creará la canalización; este proceso puede tardar varios minutos en completarse. El trabajo de importación comenzará inmediatamente después de que se cree la canalización.

Troubleshooting

En esta sección se explican algunos modos de error básicos y cómo solucionar problemas con las exportaciones DynamoDB.

Si se produce un error durante una importación o exportación, en la consola de AWS Data Pipeline la canalización aparecerá con el estado ERROR. Si esto ocurre, haga clic en el nombre de la canalización en la que se ha producido el error para abrir su página de detalles. Aparecerá información sobre todos los pasos de la canalización y el estado de cada uno de ellos. En particular, examine todos los seguimientos del stack de ejecución que observe.

Por último, vaya al bucket de Amazon S3 y busque los archivos log de importación o exportación que se hayan escrito en él.

A continuación se indican algunos problemas comunes que pueden provocar errores en una canalización, acompañados de acciones correctivas. Para diagnosticar la canalización, compare los errores que ha observado con los problemas que se indican a continuación.

  • Si se trata de una importación, asegúrese de que la tabla de destino ya exista y de que esta última tenga el mismo esquema de claves que la tabla de origen. Estas condiciones son imprescindibles y, si no se cumplen, la importación no se podrá realizar.

  • Asegúrese de que la tubería tenga la etiquetadynamodbdatapipelineDe lo contrario, las llamadas a la API de Amazon EMR no prosperarán.

  • Asegúrese de que el bucket de Amazon S3 especificado se haya creado y de que dispone de permisos de lectura y escritura para él.

  • La canalización podría haber superado su tiempo de ejecución. Este parámetro se establece al crear la canalización. Por ejemplo, es posible que haya establecido el tiempo de ejecución en 1 hora pero que el trabajo de exportación haya requerido más tiempo. Pruebe a eliminar y volver a crear la canalización, pero esta vez con más tiempo de ejecución.

  • Actualice el archivo de manifiesto si realiza la restauración desde un bucket de Amazon S3 que no es el bucket original con el que se realizó la exportación (contiene una copia de la exportación).

  • Es posible que no disponga de los permisos adecuados para realizar una importación o exportación. Para obtener más información, consulte Requisitos previos para exportar e importar datos.

  • Es posible que haya alcanzado una cuota de recursos en suAWS, como el número máximo de instancias de Amazon EC2 o el número máximo deAWS Data Pipelinecanalizaciones. Para obtener más información, incluso sobre cómo solicitar un aumento de estas cuotas, consulteAWSCuotas de servicio deen laAWSReferencia general de.

nota

Para obtener más información sobre cómo solucionar problemas en una canalización, visiteSolución de problemasen laAWS Data PipelineGuía para desarrolladores.

Plantillas predefinidas paraAWS Data Pipeliney DynamoDB

Si desea comprender mejor el modo en queAWS Data PipelinePor último, recomendamos consultar laAWS Data PipelineGuía para desarrolladores. Esta guía contiene tutoriales paso a paso para crear canalizaciones y trabajar con ellas. Puede utilizar estos tutoriales como punto de partida para crear sus propias canalizaciones. Recomendamos leer el tutorial de AWS Data Pipeline, que recorre uno a uno los pasos necesarios para crear una canalización de exportación e importación que puede personalizar de acuerdo con sus requisitos. ConsulteTutorial: Importar y exportar a Amazon DynamoDB medianteAWS Data Pipelineen laAWS Data PipelineGuía para desarrolladores.

AWS Data Pipelineofrece varias plantillas para crear canalizaciones; las siguientes son pertinentes para DynamoDB.

Exportación de datos entre DynamoDB y Amazon S3

nota

DynamoDB Console ahora admite su propio flujo de exportación a Amazon S3, sin embargo, no es compatible conAWS Data Pipelineflujo de importación. Para obtener más información, consulteExportación de datos de tablas de DynamoDB a Amazon S3y la publicación del blogExportar datos de tabla de Amazon DynamoDB a su Data Lake en Amazon S3, sin necesidad de escribir código.

LaAWS Data PipelineLa consola de ofrece dos plantillas predefinidas para exportar datos entre DynamoDB y Amazon S3. Para obtener más información sobre estas plantillas, consulte las secciones siguientes de laAWS Data PipelineGuía para desarrolladores: