他のサービスと Amazon Redshift を併用する - Amazon Redshift

他のサービスと Amazon Redshift を併用する

Amazon Redshift を他の AWS サービスと統合し、データセキュリティ機能を使用することにより、ユーザーは確実かつ安全に、すばやくデータを移動、変換、ロードできるようになります。

Amazon Redshift と Amazon S3 間でのデータの移動

Amazon Simple Storage Service (Amazon S3) は、クラウドにデータを保存するためのウェブサービスです。Amazon Redshift は、Amazon S3 バケットに保存されている複数のデータファイルからデータの読み取りとロードを行うために、並列処理を活用します。詳細については、「Amazon S3 からデータをロードする」を参照してください。

また、Amazon Redshift データウェアハウスから Amazon S3 上の複数のデータファイルに対するデータのエクスポートに、並列処理を使用することもできます。詳細については、「データのアンロード」を参照してください。

Amazon DynamoDB で Amazon Redshift を使用する

Amazon DynamoDB は、フルマネージド型の NoSQL データベースサービスです。1 つの Amazon DynamoDB テーブルからのデータを含む Amazon Redshift テーブルを、COPY コマンドによりロードすることができます。詳細については、「Amazon DynamoDB テーブルからのデータのロード」を参照してください。

SSH によるリモートホストからのデータのインポート

Amazon Redshift の COPY コマンドは、Amazon EMR クラスター、Amazon EC2 インスタンス、あるいは他のコンピュータなど、1 つ以上のリモートホストからデータをロードするために使用できます。COPY では SSH を使用してリモートホストに接続し、リモートホストでコマンドを実行してデータを生成します。Amazon Redshift は複数の同時接続をサポートしています。COPY コマンドでは、複数のホストのソースからの出力を並列で読み取ってロードします。詳細については、「リモートホストからデータをロードする」を参照してください。

AWS Data Pipeline を使用したデータロードの自動化

AWS Data Pipeline を使用して、Amazon Redshift との間のデータの移動や変換を自動化できます。AWS Data Pipeline に組み込まれたスケジューリング機能を使用することで、データ転送や変換のための複雑なロジックを記述することなく、繰り返し行うジョブをスケジュールして実行することができます。例えば、繰り返しのジョブを設定して、データを Amazon DynamoDB から Amazon Redshift へ自動的にコピーすることができます。Amazon S3 から Amazon Redshift に対し、データを定期的に移動するパイプラインを作成するプロセスに関するチュートリアルは、AWS Data Pipeline デベロッパーガイド の「AWS Data Pipelineを使用して Amazon Redshift にデータをコピーする」を参照してください。

AWS Database Migration Service(AWS DMS) を使用してのデータの移行

Amazon Redshift へのデータの移行に AWS Database Migration Service を使用できます。AWS DMS は、Oracle、PostgreSQL、Microsoft SQL Server、Amazon Redshift、Aurora、DynamoDB、Amazon S3、MariaDB、MySQL など、幅広く使用されている商用およびオープンソースのデータベースとの間でデータを移行できます。詳細については、「AWS Database Migration Service のターゲットとしての Amazon Redshift データベースの使用」を参照してください。