Avant de commencer : configurer les options COPY et charger des données - AWS Data Pipeline

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Avant de commencer : configurer les options COPY et charger des données

Avant de copier des données dans Amazon RedshiftAWS Data Pipeline, assurez-vous de :

  • Chargez des données depuis Amazon S3.

  • Configurez l'COPYactivité dans Amazon Redshift.

Une fois que ces options fonctionnent correctement et que vous avez réussi à charger des données, transférez ces options à AWS Data Pipeline pour y effectuer la copie.

Pour connaître COPY les options, consultez la section COPY du manuel Amazon Redshift Database Developer Guide.

Pour savoir comment charger des données depuis Amazon S3, consultez la section Chargement de données depuis Amazon S3 dans le manuel Amazon Redshift Database Developer Guide.

Par exemple, la commande SQL suivante dans Amazon Redshift crée une nouvelle table nommée LISTING et copie des exemples de données à partir d'un compartiment accessible au public dans Amazon S3.

Remplacez le <iam-role-arn> et la région par vos propres valeurs.

Pour en savoir plus sur cet exemple, consultez Charger des exemples de données depuis Amazon S3 dans le guide de démarrage Amazon Redshift.

create table listing( listid integer not null distkey, sellerid integer not null, eventid integer not null, dateid smallint not null sortkey, numtickets smallint not null, priceperticket decimal(8,2), totalprice decimal(8,2), listtime timestamp); copy listing from 's3://awssampledbuswest2/tickit/listings_pipe.txt' credentials 'aws_iam_role=<iam-role-arn>' delimiter '|' region 'us-west-2';