メニュー
Amazon Redshift
データベース開発者ガイド (API Version 2012年12月1日)

他のサービスで Amazon Redshift を使用する

Amazon Redshift を他の AWS サービスと統合することにより、データセキュリティ機能を使用して確実かつ安全に、すばやくデータを移動、変換、ロードできます。

Amazon Redshift と Amazon S3 の間のデータの移動

Amazon Simple Storage Service (Amazon S3) は、クラウドにデータを保存するウェブサービスです。Amazon Redshift は、並列処理を活用して、Amazon S3 バケットに保存されている複数のデータファイルからデータを読み出してロードします。詳細については、「Amazon S3 からデータをロードする」を参照してください。

並列処理を使用して、Amazon Redshift データウェアハウスから Amazon S3 の複数のデータファイルにデータをエクスポートすることもできます。詳細については、「データのアンロード」を参照してください。

Amazon Redshift を Amazon DynamoDB に使用する

Amazon DynamoDB は、完全マネージド型の NoSQL データベースサービスです。COPY コマンドで、1 つの Amazon DynamoDB テーブルのデータを使用して Amazon Redshift テーブルをロードすることができます。詳細については、「Amazon DynamoDB テーブルからデータをロードする」を参照してください。

SSH によるリモートホストからのデータのインポート

Amazon Redshift で COPY コマンドを使用して、Amazon EMR クラスター、Amazon EC2 インスタンス、その他のコンピューターなど、1 つ以上のリモートホストからデータをロードすることができます。COPY を実行すると、SSH を使用してリモートホストに接続し、リモートホストでコマンドを実行してテキスト出力を生成します。Amazon Redshift では、複数の同時接続がサポートされます。COPY コマンドでは、複数のホストのソースからの出力を並列で読み取ってロードします。詳細については、「リモートホストからデータをロードする」を参照してください。

AWS Data Pipeline を使用したデータのロードの自動化

AWS Data Pipeline を使用して、Amazon Redshift との間のデータの移動や変換を自動化できます。AWS Data Pipeline に組み込まれたスケジューリング機能を使用して、定期的にジョブを繰り返し実行させることができ、複雑なデータ転送や変換ロジックを自分で書く必要がありません。例えば、再帰ジョブを設定して定期的にデータを Amazon DynamoDB から Amazon Redshift へ自動的にコピーすることができます。Amazon S3 から Amazon Redshift に定期的にデータを移動するパイプラインを作成する手順を説明したチュートリアルについては、AWS Data Pipeline 開発者ガイド の「Amazon RedshiftAWS Data Pipeline を使用して にデータをコピーする」を参照してください。

AWS Database Migration Service を使用したデータの移行 (AWS DMS)

AWS Database Migration Service を使用して Amazon Redshift にデータを移行できます。AWS DMS は、Oracle、PostgreSQL、Microsoft SQL Server、Amazon Redshift、Aurora、DynamoDB、Amazon S3、MariaDB、MySQL など、幅広く使用されている商用およびオープンソースデータベースとの間でデータを移行できます。詳細については、AWS Database Migration Service のターゲットとして Amazon Redshift データベースを使用する参照してください。