Amazon Keyspaces へのデータの一括アップロードまたは移行に適したツールを選択する方法 - Amazon Keyspaces (Apache Cassandra 向け)

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon Keyspaces へのデータの一括アップロードまたは移行に適したツールを選択する方法

このセクションでは、Amazon Keyspaces にデータを一括アップロードまたは移行するために使用できるさまざまなツールを確認し、ニーズに応じて適切なツールを選定する方法を学びます。さらに、このセクションでは、Amazon Keyspaces にデータをインポートする方法を示す、利用可能なstep-by-stepのチュートリアルの概要とユースケースについて説明します。

Apache Cassandra から Amazon Keyspaces にワークロードを移行するための戦略を確認するには、「Apache Cassandra から Amazon Keyspaces への移行の計画を立てる」を参照してください。

  • 移行ツール

    • Github で利用可能な Amazon Keyspaces (Apache Cassandra 向け) の料金計算ツールを使用すると、既存の Apache Cassandra ワークロードに基づいて Amazon Keyspaces の月額コストを見積もることができます。Amazon Keyspaces の Cassandra nodetool ステータス出力と意図したサーバーレス設定からメトリクスを入力して、2 つのソリューション間の直接コストを比較します。この計算ツールは、既存の Cassandra デプロイと比較した Amazon Keyspaces の運用コストにのみ重点を置いていることに注意してください。インフラストラクチャのメンテナンス、運用オーバーヘッド、Cassandra のサポートコストなどの総所有コスト (TCO) 要因は含まれません。

    • Amazon Keyspaces 移行用の ZDM デュアル書き込みプロキシGithub で利用可能な ZDM デュアル書き込みプロキシは、Apache Cassandra から Amazon Keyspaces へのダウンタイムのない移行をサポートしています。

    • CQLReplicator – CQLReplicator はオープンソースのユーティリティで、Github から入手できます。このユーティリティを利用して、Apache Cassandra から Amazon Keyspaces にほぼリアルタイムでデータを移行できます。

      詳細については、「CQLReplicator を使用してデータを移行する」を参照してください。

    • Amazon Managed Streaming for Apache Kafka を使用して、デュアル書き込みによるオンライン移行プロセスを実装する方法の詳細については、「Guidance for continuous data migration from Apache Cassandra to Amazon Keyspaces」を参照してください。

    • 大規模な移行については、抽出、変換、ロード (ETL) ツールの使用を検討してください。 AWS Glue を使用すると、データ変換移行を迅速かつ効果的に実行できます。詳細については、「オフライン移行プロセス: Apache Cassandra から Amazon Keyspaces への移行」を参照してください。

    • Apache Cassandra Spark コネクタを使用して Amazon Keyspaces にデータを書き込む方法については、「チュートリアル: Apache Spark と統合してデータをインポートまたはエクスポートする」を参照してください。

    • cqlsh COPY FROM コマンドを使用してデータを Amazon Keyspaces にロードすることから始めます。cqlsh は、Apache Cassandra に含まれており、小さなデータセットまたはテストデータのロードに最適です。手順については、「チュートリアル: cqlsh を使用した Amazon Keyspaces へのデータのロード」を参照してください。

    • また、Apache Cassandra 用の DataStax Bulk Loader を使用すれば、dsbulk コマンドを使用して Amazon Keyspaces にデータをロードできます。DSBulk は、インポート機能が cqlsh よりも強力で、GitHub リポジトリから入手できます。手順については、「チュートリアル: DSBulk を使用した Amazon Keyspaces へのデータのロード」を参照してください。

Amazon Keyspaces へのデータアップロードに関する一般的な考慮事項

  • データを小さな単位に分けてアップロードします。

    生データサイズの観点から、次の移行単位とその潜在的なフットプリントを考慮してください。1 つまたは複数のフェーズで少量ずつデータをアップロードすれば、移行を簡単に進めることができます。

    • クラスター別 — すべての Cassandra データを一度に移行します。このアプローチはクラスターが小さければおそらく問題ありません。

    • キースペース別またはテーブル別 - 移行をキースペースまたはテーブルのグループに分割します。このアプローチは、各ワークロードの要件に基づいてフェーズでデータを移行する場合に役立ちます。

    • データ別 - データサイズを縮小するために、特定のユーザーまたは製品グループのデータを移行することを検討します。

  • 最初に優先的にアップロードするデータを処理のしやすさに基づいて決めます。

    特定の時間に変更されないデータ、夜間のバッチジョブのデータ、オフライン時間に使用されないデータ、内部アプリのデータなど、最初に簡単に移行できるデータがあるかどうかを検討します。