시작하기 전: COPY 옵션 구성 및 데이터 로드 - AWS Data Pipeline

AWS Data Pipeline 신규 고객은 더 이상 이용할 수 없습니다. 의 기존 고객 AWS Data Pipeline 정상적으로 서비스를 계속 사용할 수 있습니다. 자세히 알아보기

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

시작하기 전: COPY 옵션 구성 및 데이터 로드

AWS Data Pipeline 내의 Amazon Redshift로 데이터를 복사하기 전에, 반드시 다음을 수행합니다.

  • Amazon S3에서 데이터를 로드합니다.

  • Amazon Redshift에서 COPY활동을 설정합니다.

이러한 옵션이 작동하고 데이터 로드를 성공적으로 완료하면 복사를 수행하기 위해 이러한 옵션을 AWS Data Pipeline으로 전송합니다.

COPY 옵션을 알아보려면, Amazon Redshift 데이터 개발자 안내서COPY를 참조하세요.

Amazon S3에서 데이터를 로드하는 단계는 Amazon Redshift 데이터베이스 개발자 안내서Amazon S3에서 데이터 로드를 참조하세요.

예를 들어 Amazon Redshift에서 다음 SQL 명령은(LISTING이)라는 이름이 붙은 새 테이블을 생성하고 Amazon S3에 있는 공개적으로 사용 가능한 버킷에서 샘플 데이터를 복사합니다.

<iam-role-arn>과 리전은 사용자의 값으로 바꾸십시오.

이 예제에 대한 세부 내용은 Amazon Redshift 시작 안내서의 Amazon S3에서 샘플 데이터 로드를 참조하세요.

create table listing( listid integer not null distkey, sellerid integer not null, eventid integer not null, dateid smallint not null sortkey, numtickets smallint not null, priceperticket decimal(8,2), totalprice decimal(8,2), listtime timestamp); copy listing from 's3://awssampledbuswest2/tickit/listings_pipe.txt' credentials 'aws_iam_role=<iam-role-arn>' delimiter '|' region 'us-west-2';