Exportación e importación de datos de DynamoDB mediante AWS Data Pipeline - Amazon DynamoDB

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Exportación e importación de datos de DynamoDB mediante AWS Data Pipeline

Puede utilizarlos AWS Data Pipeline para exportar datos de una tabla de DynamoDB a un archivo de un bucket de Amazon S3. También puede utilizar la consola para importar datos de Amazon S3 a una tabla de DynamoDB, ya sea de la misma región de AWS o de otra.

nota

La consola de DynamoDB ahora es compatible de forma nativa con la importación desde Amazon S3 y la exportación a Amazon S3. Estos flujos no son compatibles con el flujo de AWS Data Pipeline importación. Para obtener más información, consulte Importación desde Amazon S3, Exportación desde Amazon S3 y la publicación de blog Export Amazon DynamoDB table data to your data lake in Amazon S3 (Exportación de datos de tablas de Amazon DynamoDB a su lago de datos en Amazon S3).

La posibilidad de importar y exportar datos resulta útil en muchos casos. Por ejemplo, supongamos que deseamos mantener un conjunto de referencia de los datos para realizar pruebas. Podría colocar estos datos de referencia en una tabla de DynamoDB y exportarla a Amazon S3. A continuación, tras ejecutar una aplicación que modificase los datos de prueba, podría "restablecer" el conjunto de datos importando de nuevo los datos de referencia de Amazon S3 a la tabla de DynamoDB. Otro ejemplo podría ser la eliminación accidental de los datos o incluso la ejecución por error de una operación DeleteTable. En estos casos, podría restaurar los datos a partir de un archivo exportado previamente a Amazon S3. Incluso podría copiar los datos de una tabla de DynamoDB de una región de AWS , almacenarlos en Amazon S3 y, a continuación, importarlos de Amazon S3 a una tabla de DynamoDB idéntica de otra región. Así, las aplicaciones de la segunda región podría acceder al punto de enlace de DynamoDB más próximo y utilizar su propia copia de los datos, con menos latencia de red.

importante

DynamoDB Backup and Restore es una característica completamente administrada. Puede crear copias de seguridad de las tablas que ocupen desde unos pocos megabytes a cientos de terabytes de datos, sin impacto alguno en el rendimiento y la disponibilidad de las aplicaciones de producción. Puedes restaurar la tabla con un solo clic AWS Management Console o una sola llamada a la API. Le recomendamos encarecidamente que utilice la función de copia de seguridad y restauración nativa de DynamoDB en lugar de utilizarla. AWS Data Pipeline Para obtener más información, consulte Uso de la copia de seguridad y restauración bajo demanda para DynamoDB.

En el siguiente diagrama se muestra información general sobre la exportación e importación de datos de DynamoDB con AWS Data Pipeline.

Para exportar una tabla de DynamoDB, utilice AWS Data Pipeline la consola para crear una nueva canalización. La canalización lanza un clúster de Amazon EMR para realizar la exportación propiamente dicha. Amazon EMR lee los datos de DynamoDB y los escribe en un archivo de exportación en un bucket de Amazon S3.

El proceso es similar para la importación, salvo que los datos se leen en el bucket de Amazon S3 y se escriben en la tabla de DynamoDB.

importante

Al exportar o importar datos de DynamoDB, incurrirá en costes adicionales por los servicios AWS subyacentes que se utilicen:

  • AWS Data Pipeline: administra automáticamente el flujo de trabajo de importación/exportación.

  • Amazon S3: contiene los datos que se exportan desde DynamoDB o se importan a DynamoDB.

  • Amazon EMR: ejecuta un clúster administrado de Hadoop para llevar a cabo las lecturas y escrituras entre DynamoDB y Amazon S3. La configuración del clúster es un nodo maestro de instancia m3.xlarge y un nodo principal de instancia m3.xlarge.

Para obtener más información, consulte Precios de AWS Data Pipeline, Precios de Amazon EMR y Precios de Amazon S3.

Requisitos previos para exportar e importar datos

Al utilizar la canalización AWS Data Pipeline para exportar e importar datos, debe especificar las acciones que la canalización puede realizar y los recursos que puede consumir. Las acciones y los recursos permitidos se definen mediante funciones AWS Identity and Access Management (de IAM).

También puede controlar el acceso si crea políticas de IAM y las asocia a usuarios, roles o grupos. Estas políticas le permiten especificar qué usuarios están autorizados para importar y exportar los datos de DynamoDB.

importante

Los usuarios necesitan acceso programático si quieren interactuar con personas AWS ajenas a. AWS Management Console La forma de conceder el acceso programático depende del tipo de usuario que acceda. AWS

Para conceder acceso programático a los usuarios, seleccione una de las siguientes opciones.

¿Qué usuario necesita acceso programático? Para Mediante

Identidad del personal

(Usuarios administrados en el Centro de identidades de IAM)

Usa credenciales temporales para firmar las solicitudes programáticas a los AWS CLI AWS SDK o las API. AWS

Siga las instrucciones de la interfaz que desea utilizar:

IAM Utilice credenciales temporales para firmar las solicitudes programáticas a los AWS SDK o las AWS CLI API. AWS Siga las instrucciones de Uso de credenciales temporales con AWS recursos de la Guía del usuario de IAM.
IAM

(No recomendado)

Utilice credenciales de larga duración para firmar las solicitudes programáticas a los AWS CLI AWS SDK o las API. AWS

Siga las instrucciones de la interfaz que desea utilizar:

Creación de roles de IAM para AWS Data Pipeline

Para poder utilizarlas AWS Data Pipeline, las siguientes funciones de IAM deben estar presentes en tu cuenta: AWS

  • DataPipelineDefaultRole— las acciones que tu canal puede realizar en tu nombre.

  • DataPipelineDefaultResourceRole— los AWS recursos que el oleoducto proporcionará en tu nombre. Para importar y exportar datos de DynamoDB, estos recursos incluyen un clúster de Amazon EMR y las instancias de Amazon EC2 asociadas a él.

Si nunca los has usado AWS Data Pipeline antes, tendrás que DataPipelineDefaultRolecrearlos DataPipelineDefaultResourceRoletú mismo. Una vez que haya creado estas funciones, podrá utilizarlas en cualquier momento para exportar o importar datos de DynamoDB.

nota

Si ha utilizado anteriormente la AWS Data Pipeline consola para crear una canalización, entonces DataPipelineDefaultRoleDataPipelineDefaultResourceRolese creó para usted en ese momento. No es necesario que realice ninguna acción; puede omitir esta sección y comenzar a crear canalizaciones en la consola de DynamoDB. Para obtener más información, consulte Exportación de datos de DynamoDB a Amazon S3 y Importación de datos de Amazon S3 a DynamoDB.

  1. Inicie sesión en la consola de IAM AWS Management Console y ábrala en https://console.aws.amazon.com/iam/.

  2. En el panel de la consola de IAM, haga clic en Roles.

  3. Haga clic en Create Role (Crear rol) y realice las siguientes operaciones:

    1. En la entidad de confianza Servicio de AWS , elija Canalización de datos.

    2. En el panel Select your use case (Seleccione su caso de uso), elija Data Pipeline (Canalización de datos) y, a continuación, elija Next:Permissions (Siguiente:Permisos).

    3. Observe que la política AWSDataPipelineRole se asocia automáticamente. Elija Next: Review.

    4. En el campo Role name (Nombre de rol), escriba DataPipelineDefaultRole como nombre del rol y elija Create role (Crear rol).

  4. Haga clic en Create Role (Crear rol) y realice las siguientes operaciones:

    1. En la entidad de confianza Servicio de AWS , elija Canalización de datos.

    2. En el panel Select your use case (Seleccione su caso de uso), elija EC2 Role for Data Pipeline (Rol de EC2 para canalización de datos) y, a continuación, elija Next:Permissions (Siguiente:Permisos).

    3. Observe que la política AmazonEC2RoleForDataPipelineRole se asocia automáticamente. Elija Next: Review.

    4. En el campo Role name (Nombre de rol), escriba DataPipelineDefaultResourceRole como nombre del rol y elija Create role (Crear rol).

Ahora que ha creado estos roles, puede comenzar a crear canalizaciones desde la consola de DynamoDB. Para obtener más información, consulte Exportación de datos de DynamoDB a Amazon S3 y Importación de datos de Amazon S3 a DynamoDB.

Otorgar permisos a los usuarios y grupos para realizar tareas de exportación e importación mediante AWS Identity and Access Management

Si desea permitir que otros usuarios, roles o grupos importen y exporten los datos de sus tablas de DynamoDB, puede crear una política de IAM y adjuntársela a los usuarios o grupos que designe. La política contiene únicamente los permisos necesarios para realizar estas tareas.

Conceder acceso completo

El siguiente procedimiento describe cómo adjuntar las políticas AWS AmazonDynamoDBFullAccess gestionadas AWSDataPipeline_FullAccess y una política en línea de Amazon EMR a un usuario. Estas políticas administradas proporcionan acceso total a los recursos de DynamoDB AWS Data Pipeline y, si se utilizan con la política en línea de Amazon EMR, permiten al usuario realizar las acciones descritas en esta documentación.

nota

Para limitar el alcance de los permisos sugeridos, la política en línea anterior aplica el uso de la etiqueta dynamodbdatapipeline. Si desea utilizar esta documentación sin esta limitación, puede eliminar la sección Condition de la política sugerida.

  1. Inicie sesión en la consola de IAM AWS Management Console y ábrala en https://console.aws.amazon.com/iam/.

  2. En el panel de la consola de IAM, haga clic en Users (Usuarios) y seleccione el usuario que desee modificar.

  3. En la pestaña Permissions (Permisos), haga clic en Add Policy (Agregar política).

  4. En el panel Attach permissions (Adjuntar permisos), haga clic en Attach existing policies directly (Asociar directamente políticas existentes).

  5. Seleccione ambos AmazonDynamoDBFullAccess y AWSDataPipeline_FullAccess y haga clic en Next: review (Siguiente: revisar).

  6. Haga clic en Add Permission (Agregar permiso).

  7. De vuelta en la pestaña Permissions (Permisos), haga clic en Add inline policy (Agregar política en línea).

  8. En la página Create a policy (Crear una política), haga clic en la pestaña JSON.

  9. Pegue el contenido de abajo.

    { "Version": "2012-10-17", "Statement": [ { "Sid": "EMR", "Effect": "Allow", "Action": [ "elasticmapreduce:DescribeStep", "elasticmapreduce:DescribeCluster", "elasticmapreduce:RunJobFlow", "elasticmapreduce:TerminateJobFlows" ], "Resource": "*", "Condition": { "Null": { "elasticmapreduce:RequestTag/dynamodbdatapipeline": "false" } } } ] }
  10. Haga clic en Review policy (Revisar la política).

  11. En el campo de nombre, escriba EMRforDynamoDBDataPipeline.

  12. Haga clic en Create policy (Crear política).

nota

Puede utilizar un procedimiento similar para adjuntar esta política administrada a un rol o grupo, en lugar de a un usuario.

Restricción del acceso a determinadas tablas de DynamoDB

Si quieres restringir el acceso para que un usuario solo pueda exportar o importar un subconjunto de tus tablas, tendrás que crear un documento de política de IAM personalizado. Puede usar el proceso descripto en Conceder acceso completo como punto de partida para la política personalizada y modificarla para permitir que un usuario solamente pueda trabajar con las tablas que especifique.

Por ejemplo, supongamos que desea permitir que un usuario exporte e importe solamente las tablas Forum, Thread y Reply. En este procedimiento se describe cómo crear una política personalizada para que un usuario pueda usar estas tablas, pero no las demás.

  1. Inicie sesión en la consola de IAM AWS Management Console y ábrala en https://console.aws.amazon.com/iam/.

  2. En el panel de la consola de IAM, haga clic en Policies (Políticas) y después en Create Policy (Crear política).

  3. En el panel Crear política, vaya a Copiar una política AWS gestionada y haga clic en Seleccionar.

  4. En el panel Copiar una política AWS gestionada, vaya a AmazonDynamoDBFullAccess y haga clic en Seleccionar.

  5. En el panel Review Policy (Revisar política) haga lo siguiente:

    1. Revise los valores de Policy Name (Nombre de política) y Description (Descripción) generados automáticamente. Si lo desea, puede modificar estos valores.

    2. En el cuadro de texto Policy Document (Documento de política), edite la política para restringir el acceso a determinadas tabla. De forma predeterminada, la política permite todas las acciones de DynamoDB en todas las tablas:

      { "Version": "2012-10-17", "Statement": [ { "Action": [ "cloudwatch:DeleteAlarms", "cloudwatch:DescribeAlarmHistory", "cloudwatch:DescribeAlarms", "cloudwatch:DescribeAlarmsForMetric", "cloudwatch:GetMetricStatistics", "cloudwatch:ListMetrics", "cloudwatch:PutMetricAlarm", "dynamodb:*", "sns:CreateTopic", "sns:DeleteTopic", "sns:ListSubscriptions", "sns:ListSubscriptionsByTopic", "sns:ListTopics", "sns:Subscribe", "sns:Unsubscribe" ], "Effect": "Allow", "Resource": "*", "Sid": "DDBConsole" }, ...remainder of document omitted...

      Para restringir la política, primero debe eliminar la siguiente línea:

      "dynamodb:*",

      A continuación, construya una nueva instrucción Action que permita obtener acceso solamente a las tablas Forum, Thread y Reply:

      { "Action": [ "dynamodb:*" ], "Effect": "Allow", "Resource": [ "arn:aws:dynamodb:us-west-2:123456789012:table/Forum", "arn:aws:dynamodb:us-west-2:123456789012:table/Thread", "arn:aws:dynamodb:us-west-2:123456789012:table/Reply" ] },
      nota

      Sustituya us-west-2 por la región en la que residen sus tablas de DynamoDB. 123456789012Sustitúyalo por tu número de AWS cuenta.

      Por último, agregue la nueva instrucción Action al documento de política:

      { "Version": "2012-10-17", "Statement": [ { "Action": [ "dynamodb:*" ], "Effect": "Allow", "Resource": [ "arn:aws:dynamodb:us-west-2:123456789012:table/Forum", "arn:aws:dynamodb:us-west-2:123456789012:table/Thread", "arn:aws:dynamodb:us-west-2:123456789012:table/Reply" ] }, { "Action": [ "cloudwatch:DeleteAlarms", "cloudwatch:DescribeAlarmHistory", "cloudwatch:DescribeAlarms", "cloudwatch:DescribeAlarmsForMetric", "cloudwatch:GetMetricStatistics", "cloudwatch:ListMetrics", "cloudwatch:PutMetricAlarm", "sns:CreateTopic", "sns:DeleteTopic", "sns:ListSubscriptions", "sns:ListSubscriptionsByTopic", "sns:ListTopics", "sns:Subscribe", "sns:Unsubscribe" ], "Effect": "Allow", "Resource": "*", "Sid": "DDBConsole" }, ...remainder of document omitted...
  6. Cuando esté conforme con los ajustes de la política, haga clic en Create Policy (Crear política).

Una vez que haya creado la política, puede adjuntarla a un usuario.

  1. En el panel de la consola de IAM, haga clic en Users (Usuarios) y seleccione el usuario que desee modificar.

  2. En la pestaña Permissions (Permisos), haga clic en Attach Policy (Asociar política).

  3. En el panel Attach Policy (Asociar política), seleccione el nombre de la política que desee y haga clic en Attach Policy (Asociar política).

nota

Puede utilizar un procedimiento similar para adjuntar su política a un rol o grupo, en lugar de a un usuario.

Exportación de datos de DynamoDB a Amazon S3

En esta sección se describe cómo exportar los datos de una o varias tablas de DynamoDB a un bucket de Amazon S3. Debe crear previamente el bucket de Amazon S3 para poder realizar la exportación.

importante

Si nunca las ha utilizado AWS Data Pipeline antes, tendrá que configurar dos funciones de IAM antes de seguir este procedimiento. Para obtener más información, consulte Creación de roles de IAM para AWS Data Pipeline.

  1. Inicie sesión en la AWS Data Pipeline consola AWS Management Console y ábrala en https://console.aws.amazon.com/datapipeline/.

  2. Si aún no tienes ninguna canalización en la AWS región actual, selecciona Comenzar ahora.

    De lo contrario, si ya dispone de al menos una canalización, elija Create new pipeline (Crear nueva canalización).

  3. En la página Create Pipeline (Crear canalización), proceda del modo siguiente:

    1. En el campo Name (Nombre), escriba el nombre de la canalización. Por ejemplo: MyDynamoDBExportPipeline.

    2. Para el parámetro Source (Origen), seleccione Build using a template (Construir utilizando una plantilla). En la lista desplegable de plantillas, seleccione Export DynamoDB table to S3 (Exportar tabla de DynamoDB a S3).

    3. En el campo Source DynamoDB table name (Nombre de tabla de DynamoDB de origen), escriba el nombre de la tabla de DynamoDB que desee exportar.

    4. En el cuadro de texto Output S3 Folder (Carpeta S3 de salida), ingrese el URI de Amazon S3 en el que se escribirá el archivo de la exportación. Por ejemplo: s3://mybucket/exports

      El formato de este URI es s3://bucketname/folder, donde:

      • bucketname es el nombre de su bucket de Amazon S3.

      • folder es el nombre de una carpeta de ese bucket. Si la carpeta no existe, se creará automáticamente. Si no especifica el nombre de la carpeta, se le asignará un nombre con este formato: s3://bucketname/region/tablename.

    5. En el cuadro de texto S3 location for logs (Ubicación de S3 para logs), ingrese el URI de Amazon S3 en el que se escribirá el archivo de registros de la exportación. Por ejemplo: s3://mybucket/logs/

      El formato del URI de S3 Log Folder (Carpeta de registro de S3) es el mismo que el de Output S3 Folder (Carpeta S3 de salida). El URI debe resolverse en una carpeta; los archivos log no se pueden escribir en el nivel superior del bucket de S3.

  4. Agregar una etiqueta con la clave dynamodbdatapipeline y el valor true.

  5. Cuando esté conforme con la configuración, haga clic en Activate (Activar).

Se creará la canalización; este proceso puede tardar varios minutos en completarse. Puedes supervisar el progreso en la AWS Data Pipeline consola.

Cuando la exportación haya finalizado, puede ir a la consola de Amazon S3 para ver el archivo exportado. El nombre del archivo de salida es un valor de identificador sin extensión, como en este ejemplo: ae10f955-fb2f-4790-9b11-fbfea01a871e_000000. El formato interno de este archivo se describe en la sección Estructura de archivos de la Guía para AWS Data Pipeline desarrolladores.

Importación de datos de Amazon S3 a DynamoDB

En esta sección se da por hecho que ya ha exportado datos de una tabla de DynamoDB y que el archivo de exportación se ha escrito en su bucket de Amazon S3. El formato interno de este archivo se describe en Estructura de archivos de la Guía para AWS Data Pipeline desarrolladores. Tenga en cuenta que este es el único formato de archivo que DynamoDB puede importar. AWS Data Pipeline

Vamos a utilizar el término tabla de origen para referirnos a la tabla original desde la que se han exportado los datos y tabla de destino para referirnos a la tabla que recibirá los datos importados. Puede importar datos de un archivo de exportación de Amazon S3, siempre y cuando se cumplan todas las condiciones siguientes:

  • La tabla de destino ya exista, porque el proceso de importación no creará la tabla.

  • La tabla de destino tenga el mismo esquema de claves que la tabla de origen.

La tabla de destino no tiene que estar vacía. Sin embargo, el proceso de importación reemplazará los elementos de datos de la tabla que tengan las mismas claves que los elementos del archivo de exportación. Por ejemplo, supongamos que tiene una tabla de clientes con una clave de CustomerIdy que solo hay tres elementos en la tabla (CustomerId1, 2 y 3). Si el archivo de exportación contiene también elementos de datos para CustomerID 1, 2 y 3, los elementos de la tabla de destino se sustituirán por los del archivo de exportación. Si el archivo de exportación también contiene un elemento de datos para CustomerId4, ese elemento se agregará a la tabla.

La tabla de destino puede estar en una AWS región diferente. Por ejemplo, supongamos que tiene una tabla denominada Customer en la región EE. UU. Oeste (Oregón) y exporta sus datos a Amazon S3. Podría importar esos datos a una tabla Customer idéntica de la región Europa (Irlanda). Esto se denomina exportación e importación entre regiones. Para obtener una lista de las regiones de AWS , visite Regiones y puntos de conexión en la Referencia general de AWS.

Tenga en cuenta que AWS Management Console le permite exportar varias tablas de origen a la vez. Sin embargo, solo se pueden importar de una en una.

  1. Inicie sesión en la AWS Data Pipeline consola AWS Management Console y ábrala en https://console.aws.amazon.com/datapipeline/.

  2. (Opcional) Si desea realizar una importación entre regiones, vaya a la esquina superior derecha de la ventana y elija la región de destino.

  3. Elija Create new pipeline (Crear nueva canalización).

  4. En la página Create Pipeline (Crear canalización), proceda del modo siguiente:

    1. En el campo Name (Nombre), escriba el nombre de la canalización. Por ejemplo: MyDynamoDBImportPipeline.

    2. Para el parámetro Source (Origen), seleccione Build using a template (Construir utilizando una plantilla). En la lista desplegable de plantillas, seleccione Import DynamoDB backup data from S3 (Importar datos de copia de seguridad de DynamoDB desde S3).

    3. En el cuadro de texto Input S3 Folder (Carpeta S3 de entrada), ingrese el URI de Amazon S3 en el que se pueda encontrar el archivo de la exportación. Por ejemplo: s3://mybucket/exports

      El formato de este URI es s3://bucketname/folder, donde:

      • bucketname es el nombre de su bucket de Amazon S3.

      • folder es el nombre de la carpeta que contiene el archivo de exportación.

      El trabajo de importación esperará encontrar un archivo en la ubicación de Amazon S3 especificada. El formato interno del archivo se describe en Verify Data Export File (Verificar el archivo de los datos exportados) en la Guía para desarrolladores de AWS Data Pipeline .

    4. En el campo Target DynamoDB table name (Nombre de tabla DynamoDB de destino), escriba el nombre de la tabla de DynamoDB en la que desee importar los datos.

    5. En el cuadro de texto S3 location for logs (Ubicación de S3 para registros), ingrese el URI de Amazon S3 en el que se escribirá el archivo de registros de la importación. Por ejemplo: s3://mybucket/logs/

      El formato del URI de S3 Log Folder (Carpeta de registro de S3) es el mismo que el de Output S3 Folder (Carpeta S3 de salida). El URI debe resolverse en una carpeta; los archivos log no se pueden escribir en el nivel superior del bucket de S3.

    6. Agregar una etiqueta con la clave dynamodbdatapipeline y el valor true.

  5. Cuando esté conforme con la configuración, haga clic en Activate (Activar).

Se creará la canalización; este proceso puede tardar varios minutos en completarse. El trabajo de importación comenzará inmediatamente después de que se cree la canalización.

Solución de problemas

En esta sección se explican algunos modos de error básicos y cómo solucionar problemas con las exportaciones en DynamoDB.

Si se produce un error durante una importación o exportación, en la consola de AWS Data Pipeline la canalización aparecerá con el estado ERROR. Si esto ocurre, haga clic en el nombre de la canalización en la que se ha producido el error para abrir su página de detalles. Aparecerá información sobre todos los pasos de la canalización y el estado de cada uno de ellos. En particular, examine todos los seguimientos del stack de ejecución que observe.

Por último, vaya al bucket de Amazon S3 y busque los archivos de registro de importación o exportación que se hayan escrito en él.

A continuación se indican algunos problemas comunes que pueden provocar errores en una canalización, acompañados de acciones correctivas. Para diagnosticar la canalización, compare los errores que ha observado con los problemas que se indican a continuación.

  • Si se trata de una importación, asegúrese de que la tabla de destino ya exista y de que esta última tenga el mismo esquema de claves que la tabla de origen. Estas condiciones son imprescindibles y, si no se cumplen, la importación no se podrá realizar.

  • Asegúrese de que la canalización tenga la etiqueta dynamodbdatapipeline; de lo contrario, las llamadas a la API de Amazon EMR no se realizarán correctamente.

  • Asegúrese de que el bucket de Amazon S3 especificado se haya creado y de que dispone de permisos de lectura y escritura para él.

  • La canalización podría haber superado su tiempo de ejecución. Este parámetro se establece al crear la canalización. Por ejemplo, es posible que haya establecido el tiempo de ejecución en 1 hora pero que el trabajo de exportación haya requerido más tiempo. Pruebe a eliminar y volver a crear la canalización, pero esta vez con más tiempo de ejecución.

  • Actualice el archivo de manifiesto si realiza la restauración desde un bucket de Amazon S3 que no es el bucket original con el que se realizó la exportación (contiene una copia de la exportación).

  • Es posible que no disponga de los permisos adecuados para realizar una importación o exportación. Para obtener más información, consulte Requisitos previos para exportar e importar datos.

  • Es posible que haya alcanzado una cuota de recursos en su AWS cuenta, como el número máximo de instancias de Amazon EC2 o el número máximo de AWS Data Pipeline canalizaciones. Para obtener más información, incluso sobre cómo solicitar un aumento de estas cuotas, consulte Cuotas de servicios de AWS en la Referencia general de AWS.

nota

Para obtener más información sobre cómo solucionar problemas en una canalización, visite Solución de problemas en la Guía de desarrolladores de AWS Data Pipeline .

Plantillas predefinidas para AWS Data Pipeline DynamoDB

Si desea comprender mejor cómo AWS Data Pipeline funciona, le recomendamos que consulte la Guía para AWS Data Pipeline desarrolladores. Esta guía contiene step-by-step tutoriales para crear canalizaciones y trabajar con ellas; puede utilizarlos como punto de partida para crear sus propias canalizaciones. Recomendamos leer el tutorial de AWS Data Pipeline , que recorre uno a uno los pasos necesarios para crear una canalización de exportación e importación que puede personalizar de acuerdo con sus requisitos. Consulte Tutorial: importar y exportar Amazon DynamoDB mediante AWS Data Pipeline en la Guía para desarrolladores de AWS Data Pipeline .

AWS Data Pipeline ofrece varias plantillas para crear canalizaciones; las siguientes plantillas son relevantes para DynamoDB.

Exportación de datos entre DynamoDB y Amazon S3

nota

La consola DynamoDB ahora admite su propio flujo de exportación a Amazon S3, pero no es compatible con AWS Data Pipeline el flujo de importación. Para obtener más información, consulte Exportación de datos de DynamoDB a Amazon S3: cómo funciona y la publicación del blog Exportar datos de tabla de Amazon DynamoDB a su lago de datos en Amazon S3, sin necesidad de escribir código.

La AWS Data Pipeline consola proporciona dos plantillas predefinidas para exportar datos entre DynamoDB y Amazon S3. Para obtener más información sobre estas plantillas, consulte las secciones siguientes de la Guía de desarrolladores de AWS Data Pipeline :