Sebelum Anda Mulai: Mengonfigurasi Opsi COPY dan Beban Data - AWS Data Pipeline

AWS Data Pipeline tidak lagi tersedia untuk pelanggan baru. Pelanggan yang sudah ada dari AWS Data Pipeline dapat terus menggunakan layanan seperti biasa. Pelajari selengkapnya

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Sebelum Anda Mulai: Mengonfigurasi Opsi COPY dan Beban Data

Sebelum menyalin data ke Amazon Redshift dalam AWS Data Pipeline, pastikan bahwa Anda:

  • Memuat data dari Amazon S3.

  • Menyiapkan aktivitas COPY di Amazon Redshift.

Setelah Anda memastikan opsi ini bekerja dan berhasil menyelesaikan beban data, transfer opsi ini ke AWS Data Pipeline, untuk melakukan penyalinan di dalamnya.

Untuk pilihan COPY, lihat COPY di Panduan Developer Basis Data Amazon Redshift.

Untuk langkah memuat data dari Amazon S3, lihat Memuat data dari Amazon S3 di Panduan Developer Basis Data Amazon Redshift.

Misalnya, perintah SQL berikut di Amazon Redshift membuat tabel baru bernama LISTING dan menyalin data sampel dari bucket yang tersedia untuk umum di Amazon S3.

Ganti <iam-role-arn> dan wilayah dengan milik Anda sendiri.

Untuk detail tentang contoh ini, lihat Memuat Data Contoh dari Amazon S3 di Panduan Memulai Amazon Redshift.

create table listing( listid integer not null distkey, sellerid integer not null, eventid integer not null, dateid smallint not null sortkey, numtickets smallint not null, priceperticket decimal(8,2), totalprice decimal(8,2), listtime timestamp); copy listing from 's3://awssampledbuswest2/tickit/listings_pipe.txt' credentials 'aws_iam_role=<iam-role-arn>' delimiter '|' region 'us-west-2';