AWSData Data Data Data Data Data Data Data Data - AWS Bimbingan Preskriptif

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

AWSData Data Data Data Data Data Data Data Data

AWSData Data Data Data Data Data Pipeline Data Data Data Data Data Data Pipeline Data Data Data Data Data Data Data Pipeline Data Data Data Data Data Data Pipeline Data Data Data Data Data Data Menggunakan Data Pipeline, Anda dapat membuat pipeline untuk mengekspor data tabel dari akun sumber. Data yang diekspor disimpan di bucket Amazon Simple Storage Service Service Storage Service Service (Amazon S3) Data yang diekspor disimpan di bucket Amazon Simple Storage Service Service Storage Service Service S3 Data yang diekspor Bucket S3 di akun target harus dapat diakses dari akun sumber. Untuk mengizinkan akses lintas akun ini, perbarui daftar kontrol akses (ACL) di bucket S3 target.

Buat pipeline lain di akun target (Account-B) untuk mengimpor data dari bucket S3 ke dalam tabel di akun target.

Ini adalah cara tradisional untuk mencadangkan tabel Amazon DynamoDB ke Amazon S3 dan memulihkan dari Amazon S3 hinggaAWS Glue memperkenalkan dukungan untuk membaca dari tabel DynamoDB secara native.

Keuntungan

  • Ini adalah solusi tanpa server.

  • Tidak ada kode baru yang diperlukan.

  • AWSData Pipeline menggunakan klaster Amazon EMR di belakang layar untuk pekerjaan, sehingga pendekatan ini efisien dan dapat menangani kumpulan data yang besar.

Kekurangannya

  • AWSLayanan tambahan (Data Pipeline dan Amazon S3) diperlukan.

  • Proses ini mengkonsumsi throughput yang disediakan pada tabel sumber dan tabel target yang terlibat, sehingga dapat mempengaruhi kinerja dan ketersediaan.

  • Pendekatan ini menimbulkan biaya tambahan, atas biaya unit kapasitas baca DynamoDB (RCU) dan unit kapasitas tulis (WCU).