

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 教學課程：使用 DSBulk 將資料載入 Amazon Keyspaces
<a name="dsbulk-upload"></a>

本step-by-step教學課程會引導您使用 [GitHub](https://github.com/datastax/dsbulk.git) 上提供的 DataStax 大量載入器 (DSBulk)，將資料從 Apache Cassandra 遷移至 Amazon Keyspaces。使用 DSBulk 有助於將資料集上傳至 Amazon Keyspaces 以供學術或測試之用。如需如何遷移生產工作負載的詳細資訊，請參閱 [離線遷移程序：Apache Cassandra 到 Amazon Keyspaces](migrating-offline.md)。在本教學課程中，您會完成下列步驟。

先決條件 – 設定具有登入資料的 AWS 帳戶、建立憑證的 JKS 信任存放區檔案、設定 `cqlsh`、下載並安裝 DSBulk，以及設定 `application.conf` 檔案。

1. **建立來源 CSV 和目標資料表** – 準備 CSV 檔案做為來源資料，並在 Amazon Keyspaces 中建立目標金鑰空間和資料表。

1. **準備資料** – 隨機化 CSV 檔案中的資料並加以分析，以判斷平均和最大資料列大小。

1. **設定輸送量容量** – 根據資料大小和所需的載入時間計算所需的寫入容量單位 (WCUs)，並設定資料表的佈建容量。

1. **設定 DSBulk 設定** – 使用身分驗證、SSL/TLS、一致性層級和連線集區大小等設定建立 DSBulk 組態檔案。

1. **執行 DSBulk 載入命令** – 執行 DSBulk 載入命令，將資料從 CSV 檔案上傳至 Amazon Keyspaces 資料表，並監控進度。

**Topics**
+ [先決條件：您必須先完成的步驟，才能使用 DSBulk 上傳資料](dsbulk-upload-prequs.md)
+ [步驟 1：使用 DSBulk 建立來源 CSV 檔案和資料上傳的目標資料表](dsbulk-upload-source.md)
+ [步驟 2：使用 DSBulk 準備要上傳的資料](dsbulk-upload-prepare-data.md)
+ [步驟 3：設定目標資料表的輸送量容量](dsbulk-upload-capacity.md)
+ [步驟 4：設定將資料從 CSV 檔案上傳至目標資料表`DSBulk`的設定](dsbulk-upload-config.md)
+ [步驟 5：執行 DSBulk `load`命令，將資料從 CSV 檔案上傳至目標資料表](dsbulk-upload-run.md)