Antes de comenzar: configurar las opciones de COPY y cargar datos - AWS Data Pipeline

AWS Data Pipeline ya no está disponible para nuevos clientes. Clientes actuales de AWS Data Pipeline pueden seguir utilizando el servicio con normalidad. Más información

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Antes de comenzar: configurar las opciones de COPY y cargar datos

Antes de copiar datos a Amazon Redshift dentro de AWS Data Pipeline, asegúrese de:

  • Cargar datos desde Amazon S3.

  • Configure la COPY actividad en Amazon Redshift.

Una vez que tenga estas opciones en funcionamiento y que haya completado correctamente una carga de datos, transfiera estas opciones a AWS Data Pipeline para realizar la copia en este servicio.

Para conocer las opciones de COPY, consulte COPY en la Guía de desarrollador de base de datos de Amazon Redshift.

Para obtener información sobre los pasos para cargar los datos desde Amazon S3, consulte Carga de datos de Amazon S3 en la Guía de desarrollador de base de datos de Amazon Redshift.

Por ejemplo, el siguiente comando SQL en Amazon Redshift crea una nueva tabla denominada LISTING y copia datos de muestra de un bucket disponible públicamente en Amazon S3.

Reemplace el <iam-role-arn> y la región por la suya propia.

Para obtener más información acerca de este ejemplo, consulte Cargar datos de muestra de Amazon S3 en la Guía de introducción de Amazon Redshift.

create table listing( listid integer not null distkey, sellerid integer not null, eventid integer not null, dateid smallint not null sortkey, numtickets smallint not null, priceperticket decimal(8,2), totalprice decimal(8,2), listtime timestamp); copy listing from 's3://awssampledbuswest2/tickit/listings_pipe.txt' credentials 'aws_iam_role=<iam-role-arn>' delimiter '|' region 'us-west-2';