メニュー
Amazon Redshift
データベース開発者ガイド (API Version 2012-12-01)

他のサービスで Amazon Redshift を使用する

Amazon Redshift を他の AWS サービスと統合することにより、データセキュリティ機能を使用して確実かつ安全に、すばやくデータを移動、変換、ロードできます。

Amazon Redshift と Amazon S3 の間のデータの移動

Amazon Simple Storage Service (Amazon S3) は、クラウドにデータを保存するウェブサービスです。Amazon Redshift は、並列処理を活用して、Amazon S3 バケットに保存されている複数のデータファイルからデータを読み出してロードします。詳細については、「Amazon S3 からデータをロードする」を参照してください。

並列処理を使用して、Amazon Redshift データウェアハウスから Amazon S3 の複数のデータファイルにデータをエクスポートすることもできます。詳細については、「データのアンロード」を参照してください。

Amazon Redshift を Amazon DynamoDB に使用する

Amazon DynamoDB は、完全マネージド型の NoSQL データベースサービスです。COPY コマンドで、1 つの Amazon DynamoDB テーブルのデータを使用して Amazon Redshift テーブルをロードすることができます。詳細については、「Amazon DynamoDB テーブルからデータをロードする」を参照してください。

SSH によるリモートホストからのデータのインポート

Amazon Redshift で COPY コマンドを使用して、Amazon EMR クラスター、Amazon EC2 インスタンス、その他のコンピューターなど、1 つ以上のリモートホストからデータをロードすることができます。COPY を実行すると、SSH を使用してリモートホストに接続し、リモートホストでコマンドを実行してテキスト出力を生成します。Amazon Redshift では、複数の同時接続がサポートされます。COPY コマンドでは、複数のホストのソースからの出力を並列で読み取ってロードします。詳細については、「リモートホストからデータをロードする」を参照してください。

AWS Data Pipeline を使用したデータのロードの自動化

AWS Data Pipeline を使用して、Amazon Redshift との間のデータの移動や変換を自動化できます。AWS Data Pipeline に組み込まれたスケジューリング機能を使用して、定期的にジョブを繰り返し実行させることができ、複雑なデータ転送や変換ロジックを自分で書く必要がありません。例えば、再帰ジョブを設定して定期的にデータを Amazon DynamoDB から Amazon Redshift へ自動的にコピーすることができます。Amazon S3 から Amazon Redshift に定期的にデータを移動するパイプラインを作成する手順を説明したチュートリアルについては、AWS Data Pipeline 開発者ガイド の「Amazon RedshiftAWS Data Pipeline を使用して にデータをコピーする」を参照してください。