Menyimpan data dari cluster Amazon Aurora My SQL DB ke dalam file teks di bucket Amazon S3 - Amazon Aurora:

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Menyimpan data dari cluster Amazon Aurora My SQL DB ke dalam file teks di bucket Amazon S3

Anda dapat menggunakan SELECT INTO OUTFILE S3 pernyataan untuk menanyakan data dari kluster Amazon Aurora My SQL DB dan menyimpannya ke dalam file teks yang disimpan dalam bucket Amazon S3. Di Aurora MySQL, file pertama kali disimpan di disk lokal, dan kemudian diekspor ke S3. Setelah ekspor selesai, file lokal dihapus.

Anda dapat mengenkripsi bucket Amazon S3 menggunakan kunci terkelola Amazon S3 SSE (-S3) AWS KMS key atau SSE (KMS- Kunci yang dikelola AWS : atau kunci yang dikelola pelanggan).

LOAD DATA FROM S3Pernyataan tersebut dapat menggunakan file yang dibuat oleh SELECT INTO OUTFILE S3 pernyataan untuk memuat data ke dalam cluster Aurora DB. Untuk informasi selengkapnya, lihat Memuat data ke dalam cluster Amazon Aurora My SQL DB dari file teks di bucket Amazon S3.

catatan

Fitur ini tidak didukung untuk klaster DB Aurora Serverless v1. Hal ini didukung untuk klaster DB Aurora Serverless v2.

Anda juga dapat menyimpan data cluster DB dan data snapshot cluster DB ke Amazon S3 menggunakan AWS Management Console AWS CLI,, atau Amazon. RDS API Untuk informasi selengkapnya, silakan lihat Mengekspor data klaster DB ke Amazon S3 dan Mengekspor data snapshot klaster DB ke Amazon S3.

Memberikan Aurora SQL akses Saya ke Amazon S3

Sebelum Anda dapat menyimpan data ke dalam bucket Amazon S3, Anda harus terlebih dahulu memberikan izin cluster Aurora My SQL DB Anda untuk mengakses Amazon S3.

Untuk memberi Aurora SQL akses Saya ke Amazon S3
  1. Buat kebijakan AWS Identity and Access Management (IAM) yang menyediakan izin bucket dan objek yang memungkinkan klaster Aurora SQL My DB Anda mengakses Amazon S3. Untuk petunjuk, silakan lihat Membuat IAM kebijakan untuk mengakses sumber daya Amazon S3.

    catatan

    Di Aurora My SQL versi 3.05 dan yang lebih tinggi, Anda dapat mengenkripsi objek menggunakan AWS KMS kunci yang dikelola pelanggan. Untuk melakukannya, sertakan kms:GenerateDataKey izin dalam IAM kebijakan Anda. Untuk informasi selengkapnya, lihat Membuat kebijakan IAM untuk mengakses sumber daya AWS KMS.

    Anda tidak memerlukan izin ini untuk mengenkripsi objek menggunakan Kunci yang dikelola AWS atau kunci terkelola Amazon S3 SSE (-S3).

  2. Buat IAM peran, dan lampirkan IAM kebijakan yang Anda buat Membuat IAM kebijakan untuk mengakses sumber daya Amazon S3 ke IAM peran baru. Untuk petunjuk, silakan lihat Membuat peran IAM untuk mengizinkan Amazon Aurora mengakses layanan AWS.

  3. Untuk Aurora My SQL version 2, setel parameter cluster aurora_select_into_s3_role atau aws_default_s3_role DB ke Amazon Resource Name (ARN) dari peran baruIAM. Jika IAM peran tidak ditentukan untukaurora_select_into_s3_role, Aurora menggunakan IAM peran yang ditentukan dalam. aws_default_s3_role

    Untuk Aurora My SQL versi 3, gunakan. aws_default_s3_role

    Jika klaster adalah bagian dari basis data global Aurora, atur parameter ini untuk setiap klaster Aurora dalam basis data global.

    Untuk informasi selengkapnya tentang parameter klaster DB, lihat Parameter klaster DB dan instans DB Amazon Aurora.

  4. Untuk mengizinkan pengguna database di klaster Aurora My SQL DB mengakses Amazon S3, kaitkan peran yang Anda buat Membuat peran IAM untuk mengizinkan Amazon Aurora mengakses layanan AWS dengan cluster DB.

    Untuk basis data global Aurora, kaitkan peran dengan setiap klaster Aurora di basis data global.

    Untuk informasi tentang mengaitkan IAM peran dengan cluster DB, lihatMengaitkan peran IAM dengan klaster DB Amazon Aurora MySQL.

  5. Konfigurasikan klaster Aurora My SQL DB Anda untuk mengizinkan koneksi keluar ke Amazon S3. Untuk petunjuk, silakan lihat Mengaktifkan komunikasi jaringan dari Amazon Aurora ke layanan lain AWS.

    Untuk basis data global Aurora, aktifkan koneksi keluar untuk setiap klaster Aurora di basis data global.

Memberikan hak istimewa untuk menyimpan data di Aurora My SQL

Pengguna basis data yang mengeluarkan pernyataan SELECT INTO OUTFILE S3 harus memiliki peran atau hak akses tertentu. Di Aurora My SQL versi 3, Anda memberikan peran tersebut. AWS_SELECT_S3_ACCESS Di Aurora My SQL versi 2, Anda memberikan hak istimewa. SELECT INTO S3 Pengguna administratif untuk klaster DB akan diberi peran atau hak akses yang sesuai secara default. Anda dapat memberikan hak akses kepada pengguna lain dengan menggunakan salah satu pernyataan berikut.

Gunakan pernyataan berikut untuk Aurora My SQL versi 3:

GRANT AWS_SELECT_S3_ACCESS TO 'user'@'domain-or-ip-address'
Tip

Saat Anda menggunakan teknik peran di Aurora My SQL versi 3, Anda juga dapat mengaktifkan peran dengan menggunakan pernyataan SET ROLE role_name atauSET ROLE ALL. Jika Anda tidak terbiasa dengan sistem peran My SQL 8.0, Anda dapat mempelajari lebih lanjut diModel hak akses berbasis peran. Untuk detail selengkapnya, lihat Menggunakan peran di Manual SQL Referensi Saya.

Hal ini hanya berlaku untuk sesi aktif saat ini. Ketika Anda terhubung kembali, Anda harus menjalankan SET ROLE pernyataan lagi untuk memberikan hak istimewa. Untuk informasi selengkapnya, lihat SETROLEpernyataan di Manual SQL Referensi Saya.

Anda dapat menggunakan parameter klaster DB activate_all_roles_on_login untuk mengaktifkan semua peran secara otomatis saat pengguna terhubung ke instans DB. Ketika parameter ini disetel, Anda biasanya tidak perlu memanggil SET ROLE pernyataan secara eksplisit untuk mengaktifkan peran. Untuk informasi selengkapnya, lihat activate_all_roles_on_login di Manual Referensi Saya. SQL

Namun, Anda harus memanggil secara SET ROLE ALL eksplisit di awal prosedur tersimpan untuk mengaktifkan peran, ketika prosedur yang disimpan dipanggil oleh pengguna yang berbeda.

Gunakan pernyataan berikut untuk Aurora My SQL versi 2:

GRANT SELECT INTO S3 ON *.* TO 'user'@'domain-or-ip-address'

AWS_SELECT_S3_ACCESSPeran dan SELECT INTO S3 hak istimewa khusus untuk Amazon Aurora SQL My dan tidak tersedia untuk database Saya RDS atau untuk SQL SQL instans DB Saya. Jika Anda telah menyiapkan replikasi antara cluster Aurora SQL My DB sebagai sumber replikasi dan database SQL Saya sebagai klien replikasi, maka GRANT pernyataan untuk peran atau hak istimewa menyebabkan replikasi berhenti dengan kesalahan. Anda dapat melewati kesalahan ini dengan aman untuk melanjutkan replikasi. Untuk melewati kesalahan pada instance RDS for My SQL DB, gunakan prosedur mysql_rds_skip_repl_error. Untuk melewati kesalahan pada SQL database Saya eksternal, gunakan variabel sistem slave_skip_errors (Aurora My version 2) atau variabel sistem replica_skip_errors (Aurora SQL My version 3). SQL

Menentukan jalur ke bucket Amazon S3

Sintaksis untuk menentukan jalur untuk menyimpan data dan file manifes di bucket Amazon S3 serupa dengan yang digunakan dalam pernyataan LOAD DATA FROM S3 PREFIX, seperti yang ditunjukkan berikut ini.

s3-region://bucket-name/file-prefix

Jalur tersebut mencakup nilai-nilai berikut:

  • region(opsional) - AWS Wilayah yang berisi bucket Amazon S3 untuk menyimpan data. Nilai ini bersifat opsional. Jika Anda tidak menentukan nilai region, Aurora akan menyimpan file Anda ke Amazon S3 di wilayah yang sama dengan klaster DB Anda.

  • bucket-name – Nama bucket Amazon S3 untuk menyimpan data. Awalan objek yang mengidentifikasi jalur folder virtual didukung.

  • file-prefix – Awalan objek Amazon S3 yang mengidentifikasi file yang akan disimpan di Amazon S3.

Berkas data yang dibuat oleh pernyataan SELECT INTO OUTFILE S3 menggunakan jalur berikut, yang 00000 mewakili bilangan bulat 5 digit berbasis nol.

s3-region://bucket-name/file-prefix.part_00000

Misalnya, pernyataan SELECT INTO OUTFILE S3 menetapkan s3-us-west-2://bucket/prefix sebagai jalur untuk menyimpan berkas data dan membuat tiga berkas data. Bucket Amazon S3 yang ditentukan berisi file data berikut.

  • s3-us-west-2://bucket/prefix.part_00000

  • s3-us-west-2://bucket/prefix.part_00001

  • s3-us-west-2://bucket/prefix.part_00002

Membuat manifes untuk menampilkan daftar file data

Anda dapat menggunakan SELECT INTO OUTFILE S3 pernyataan dengan MANIFEST ON opsi untuk membuat file manifes dalam JSON format yang mencantumkan file teks yang dibuat oleh pernyataan. LOAD DATA FROM S3Pernyataan tersebut dapat menggunakan file manifes untuk memuat file data kembali ke cluster Aurora My SQL DB. Untuk informasi selengkapnya tentang penggunaan manifes untuk memuat file data dari Amazon S3 ke dalam klaster Aurora My SQL DB, lihat. Menggunakan manifes untuk menentukan file data yang akan dimuat

File data yang disertakan dalam manifes yang dibuat oleh pernyataan SELECT INTO OUTFILE S3 akan dicantumkan dalam urutan pembuatannya oleh pernyataan tersebut. Misalnya, pernyataan SELECT INTO OUTFILE S3 menetapkan s3-us-west-2://bucket/prefix sebagai jalur untuk menyimpan file data serta membuat tiga file data dan sebuah file manifes. Bucket Amazon S3 yang ditentukan berisi file manifes bernama s3-us-west-2://bucket/prefix.manifest, yang berisi informasi berikut.

{ "entries": [ { "url":"s3-us-west-2://bucket/prefix.part_00000" }, { "url":"s3-us-west-2://bucket/prefix.part_00001" }, { "url":"s3-us-west-2://bucket/prefix.part_00002" } ] }

SELECTINTOOUTFILES3

Anda dapat menggunakan pernyataan SELECT INTO OUTFILE S3 untuk meminta data dari klaster DB dan menyimpannya secara langsung ke dalam file teks yang dibatasi yang tersimpan di bucket Amazon S3.

File terkompresi tidak didukung. File terenkripsi didukung mulai dari Aurora My versi 2.09.0. SQL

Sintaks

SELECT [ALL | DISTINCT | DISTINCTROW ] [HIGH_PRIORITY] [STRAIGHT_JOIN] [SQL_SMALL_RESULT] [SQL_BIG_RESULT] [SQL_BUFFER_RESULT] [SQL_CACHE | SQL_NO_CACHE] [SQL_CALC_FOUND_ROWS] select_expr [, select_expr ...] [FROM table_references [PARTITION partition_list] [WHERE where_condition] [GROUP BY {col_name | expr | position} [ASC | DESC], ... [WITH ROLLUP]] [HAVING where_condition] [ORDER BY {col_name | expr | position} [ASC | DESC], ...] [LIMIT {[offset,] row_count | row_count OFFSET offset}] INTO OUTFILE S3 's3_uri' [CHARACTER SET charset_name] [export_options] [MANIFEST {ON | OFF}] [OVERWRITE {ON | OFF}] [ENCRYPTION {ON | OFF | SSE_S3 | SSE_KMS ['cmk_id']}] export_options: [FORMAT {CSV|TEXT} [HEADER]] [{FIELDS | COLUMNS} [TERMINATED BY 'string'] [[OPTIONALLY] ENCLOSED BY 'char'] [ESCAPED BY 'char'] ] [LINES [STARTING BY 'string'] [TERMINATED BY 'string'] ]

Parameter

Pernyataan SELECT INTO OUTFILE S3 menggunakan parameter wajib dan opsional berikut yang khusus untuk Aurora.

s3-uri

Menentukan URI untuk awalan Amazon S3 untuk digunakan. Gunakan sintaks yang dijelaskan dalam Menentukan jalur ke bucket Amazon S3.

FORMAT {CSV|TEXT} [HEADER]

Secara opsional menyimpan data dalam CSV format.

TEXTOpsi ini adalah default dan menghasilkan format SQL ekspor Saya yang ada.

Opsi CSV menghasilkan nilai data yang dipisahkan koma. CSVFormatnya mengikuti spesifikasi di RFC-4180. Jika Anda menentukan kata kunci opsional HEADER, file output akan berisi satu baris header. Label di baris header sesuai dengan nama kolom dari pernyataan SELECT. Anda dapat menggunakan CSV file untuk melatih model data untuk digunakan dengan layanan AWS ML. Untuk informasi selengkapnya tentang penggunaan data Aurora yang diekspor AWS dengan layanan ML, lihat. Mengekspor data ke Amazon S3 SageMaker untuk pelatihan model (Lanjutan)

MANIFEST{PADA |OFF}

Menunjukkan apakah file manifes dibuat di Amazon S3. File manifes adalah file JavaScript Object Notation (JSON) yang dapat digunakan untuk memuat data ke dalam cluster Aurora DB dengan LOAD DATA FROM S3 MANIFEST pernyataan tersebut. Untuk informasi selengkapnya tentang LOAD DATA FROM S3 MANIFEST, lihat Memuat data ke dalam cluster Amazon Aurora My SQL DB dari file teks di bucket Amazon S3.

Jika MANIFEST ON ditentukan dalam kueri, file manifes dibuat di Amazon S3 setelah semua file data dibuat dan diunggah. file manifes dibuat menggunakan jalur berikut:

s3-region://bucket-name/file-prefix.manifest

Untuk informasi selengkapnya tentang format konten file manifes, lihat Membuat manifes untuk menampilkan daftar file data.

OVERWRITE{PADA |OFF}

Menunjukkan apakah file yang ada di bucket Amazon S3 yang ditentukan akan ditimpa. Jika OVERWRITE ON ditentukan, file yang ada yang cocok dengan awalan file dalam yang URI ditentukan dalam akan s3-uri ditimpa. Jika tidak, kesalahan akan muncul.

ENCRYPTION{PADA | OFF | SSE _S3 | SSE _ KMS ['cmk_id']}

Menunjukkan apakah akan menggunakan enkripsi sisi server dengan kunci terkelola Amazon S3 (SSE-S3) atau AWS KMS keys (SSE-KMS, termasuk dan kunci yang dikelola pelanggan). Kunci yang dikelola AWS SSE_KMSPengaturan SSE_S3 dan tersedia di Aurora My SQL versi 3.05 dan lebih tinggi.

Anda juga dapat menggunakan variabel sesi aurora_select_into_s3_encryption_default bukan klausa ENCRYPTION, seperti yang ditunjukkan pada contoh berikut. Gunakan salah satu SQL klausa atau variabel sesi, tetapi tidak keduanya.

set session set session aurora_select_into_s3_encryption_default={ON | OFF | SSE_S3 | SSE_KMS};

SSE_KMSPengaturan SSE_S3 dan tersedia di Aurora My SQL versi 3.05 dan lebih tinggi.

Jika Anda mengatur aurora_select_into_s3_encryption_default ke nilai berikut:

  • OFF – Kebijakan enkripsi default bucket S3 akan diikuti. Nilai default aurora_select_into_s3_encryption_default adalah OFF.

  • ONatau SSE_S3 — Objek S3 dienkripsi menggunakan kunci terkelola Amazon S3 (-S3). SSE

  • SSE_KMS— Objek S3 dienkripsi menggunakan file. AWS KMS key

    Dalam hal ini, Anda juga menyertakan variabel sesi aurora_s3_default_cmk_id, misalnya:

    set session aurora_select_into_s3_encryption_default={SSE_KMS}; set session aurora_s3_default_cmk_id={NULL | 'cmk_id'};
    • Saat aurora_s3_default_cmk_id bernilai NULL, objek S3 dienkripsi menggunakan Kunci yang dikelola AWS.

    • Jika aurora_s3_default_cmk_id berupa string cmk_id yang tidak kosong, objek S3 dienkripsi menggunakan kunci yang dikelola pelanggan.

      Nilai cmk_id tidak boleh berupa string kosong.

Saat Anda menggunakan perintah SELECT INTO OUTFILE S3, Aurora menentukan enkripsi sebagai berikut:

  • Jika ENCRYPTION klausa hadir dalam SQL perintah, Aurora hanya bergantung pada nilaiENCRYPTION, dan tidak menggunakan variabel sesi.

  • Jika klausa ENCRYPTION tidak ada, Aurora mengandalkan nilai variabel sesi.

Untuk informasi selengkapnya, lihat Menggunakan enkripsi sisi server dengan kunci terkelola Amazon S3 (SSE-S3) dan Menggunakan enkripsi sisi server dengan kunci AWS KMS (-SSE) KMS di Panduan Pengguna Layanan Penyimpanan Sederhana Amazon.

Anda dapat menemukan detail lebih lanjut tentang parameter lain dalam SELECTLOADDATApernyataan dan pernyataan, di SQL dokumentasi Saya.

Pertimbangan

Jumlah file yang ditulis ke bucket Amazon S3 tergantung pada jumlah data yang dipilih oleh SELECT INTO OUTFILE S3 pernyataan dan ambang batas ukuran file untuk Aurora My. SQL Ambang batas ukuran file default adalah 6 gigabyte (GB). Jika data yang dipilih oleh pernyataan kurang dari ambang batas ukuran file, satu file akan dibuat; jika tidak, banyak file akan dibuat. Pertimbangan lain untuk file yang dibuat oleh pernyataan ini mencakup hal-hal berikut:

  • Aurora My SQL menjamin bahwa baris dalam file data tidak dibagi melintasi batas file. Untuk banyak file, ukuran setiap file data kecuali yang terakhir biasanya hampir sama dengan ambang batas ukuran file. Namun, terkadang jika ambang batas ukuran file tidak tercapai, akibatnya baris akan terbagi menjadi dua file data. Dalam hal ini, Aurora My SQL membuat file data yang menjaga baris tetap utuh, tetapi mungkin lebih besar dari ambang ukuran file.

  • Karena setiap SELECT pernyataan di Aurora My SQL berjalan sebagai transaksi atom, SELECT INTO OUTFILE S3 pernyataan yang memilih kumpulan data besar mungkin berjalan selama beberapa waktu. Jika pernyataan gagal karena alasan apa pun, Anda mungkin perlu memulai kembali dan mengeluarkan pernyataan tersebut lagi. Namun, jika pernyataan gagal, file yang sudah diunggah ke Amazon S3 tetap berada di bucket Amazon S3 yang ditentukan. Anda dapat menggunakan pernyataan lain untuk mengunggah data yang tersisa daripada memulai dari awal lagi.

  • Jika jumlah data yang akan dipilih berukuran besar (lebih dari 25 GB), kami menyarankan Anda menggunakan beberapa pernyataan SELECT INTO OUTFILE S3 untuk menyimpan data ke Amazon S3. Setiap pernyataan harus memilih bagian data yang berbeda untuk disimpan, dan juga menentukan file_prefix yang berbeda dalam parameter s3-uri untuk digunakan saat menyimpan file data. Dengan mempartisi data yang akan dipilih menggunakan beberapa pernyataan, kesalahan di satu pernyataan akan lebih mudah untuk dipulihkan. Jika terjadi kesalahan untuk satu pernyataan, hanya sebagian data yang perlu dipilih kembali dan diunggah ke Amazon S3. Penggunaan banyak pernyataan juga membantu menghindari satu transaksi yang berjalan lama, yang dapat meningkatkan performa.

  • Jika beberapa pernyataan SELECT INTO OUTFILE S3 yang menggunakan file_prefix yang sama di parameter s3-uri dijalankan secara paralel untuk memilih data yang diunggah ke dalam Amazon S3, perilakunya tidak akan ditentukan.

  • Metadata, seperti skema tabel atau metadata file, tidak diunggah oleh Aurora My ke Amazon S3. SQL

  • Dalam beberapa kasus, Anda mungkin perlu menjalankan kembali kueri SELECT INTO OUTFILE S3, seperti untuk memulihkan dari kegagalan. Dalam kasus ini, Anda harus menghapus file data apa pun yang ada di bucket Amazon S3 dengan awalan file yang sama yang ditentukan di s3-uri, atau menyertakan OVERWRITE ON di kueri SELECT INTO OUTFILE S3.

SELECT INTO OUTFILE S3Pernyataan tersebut mengembalikan nomor SQL kesalahan saya yang khas dan respons pada keberhasilan atau kegagalan. Jika Anda tidak memiliki akses ke nomor SQL kesalahan dan respons saya, cara termudah untuk menentukan kapan selesai adalah dengan menentukan MANIFEST ON dalam pernyataan. File manifes adalah file terakhir yang ditulis oleh pernyataan tersebut. Dengan kata lain, jika Anda memiliki file manifes, berarti pernyataan tersebut telah selesai.

Saat ini, tidak ada cara untuk memantau secara langsung progres pernyataan SELECT INTO OUTFILE S3 saat dijalankan. Namun, misalkan Anda menulis sejumlah besar data dari Aurora My SQL ke Amazon S3 menggunakan pernyataan ini, dan Anda tahu ukuran data yang dipilih oleh pernyataan tersebut. Dalam kasus ini, Anda dapat memperkirakan progresnya dengan memantau pembuatan file data di Amazon S3.

Untuk melakukannya, Anda dapat menggunakan fakta bahwa sebuah file data akan dibuat di bucket Amazon S3 yang ditentukan untuk setiap 6 GB data yang dipilih oleh pernyataan tersebut. Bagilah ukuran data yang dipilih dengan 6 GB untuk mendapatkan perkiraan jumlah file data yang akan dibuat. Anda kemudian dapat memperkirakan progres pernyataan dengan memantau jumlah file yang diunggah ke Amazon S3 saat pernyataan berjalan.

Contoh

Pernyataan berikut memilih semua data dalam employees tabel dan menyimpan data ke dalam bucket Amazon S3 yang berada di wilayah berbeda dari cluster Aurora SQL My DB. Pernyataan tersebut membuat file data yang setiap bidangnya diterminasi dengan karakter koma (,) dan setiap barisnya diterminasi dengan karakter baris baru (\n). Pernyataan tersebut menampilkan kesalahan jika file yang cocok dengan awalan file sample_employee_data ada di bucket Amazon S3 yang ditentukan.

SELECT * FROM employees INTO OUTFILE S3 's3-us-west-2://aurora-select-into-s3-pdx/sample_employee_data' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n';

Pernyataan berikut memilih semua data dalam employees tabel dan menyimpan data ke dalam bucket Amazon S3 yang berada di wilayah yang sama dengan cluster Aurora SQL My DB. Pernyataan tersebut membuat file data yang setiap bidangnya diterminasi dengan karakter koma (,) dan setiap barisnya diterminasi dengan karakter baris baru (\n), serta membuat juga sebuah file manifes. Pernyataan tersebut menampilkan kesalahan jika file yang cocok dengan awalan file sample_employee_data ada di bucket Amazon S3 yang ditentukan.

SELECT * FROM employees INTO OUTFILE S3 's3://aurora-select-into-s3-pdx/sample_employee_data' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' MANIFEST ON;

Pernyataan berikut memilih semua data di tabel employees dan menyimpan data ke dalam bucket Amazon S3 yang berada di wilayah yang berbeda dari klaster DB Aurora. Pernyataan tersebut membuat file data yang setiap bidangnya diterminasi dengan karakter koma (,) dan setiap barisnya diterminasi dengan karakter baris baru (\n). Pernyataan tersebut menimpa file apa pun yang ada yang cocok dengan awalan file sample_employee_data di bucket Amazon S3 yang ditentukan.

SELECT * FROM employees INTO OUTFILE S3 's3-us-west-2://aurora-select-into-s3-pdx/sample_employee_data' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' OVERWRITE ON;

Pernyataan berikut memilih semua data dalam employees tabel dan menyimpan data ke dalam bucket Amazon S3 yang berada di wilayah yang sama dengan cluster Aurora SQL My DB. Pernyataan tersebut membuat file data yang setiap bidangnya diterminasi dengan karakter koma (,) dan setiap barisnya diterminasi dengan karakter baris baru (\n), serta membuat juga sebuah file manifes. Pernyataan tersebut menimpa file apa pun yang ada yang cocok dengan awalan file sample_employee_data di bucket Amazon S3 yang ditentukan.

SELECT * FROM employees INTO OUTFILE S3 's3://aurora-select-into-s3-pdx/sample_employee_data' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' MANIFEST ON OVERWRITE ON;