Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Menyimpan data dari cluster Amazon Aurora My SQL DB ke dalam file teks di bucket Amazon S3
Anda dapat menggunakan SELECT INTO OUTFILE S3
pernyataan untuk menanyakan data dari kluster Amazon Aurora My SQL DB dan menyimpannya ke dalam file teks yang disimpan dalam bucket Amazon S3. Di Aurora MySQL, file pertama kali disimpan di disk lokal, dan kemudian diekspor ke S3. Setelah ekspor selesai, file lokal dihapus.
Anda dapat mengenkripsi bucket Amazon S3 menggunakan kunci terkelola Amazon S3 SSE (-S3) AWS KMS key atau SSE (KMS- Kunci yang dikelola AWS : atau kunci yang dikelola pelanggan).
LOAD DATA FROM S3
Pernyataan tersebut dapat menggunakan file yang dibuat oleh SELECT INTO
OUTFILE S3
pernyataan untuk memuat data ke dalam cluster Aurora DB. Untuk informasi selengkapnya, lihat Memuat data ke dalam cluster Amazon Aurora My SQL DB dari file teks di bucket Amazon S3.
catatan
Fitur ini tidak didukung untuk klaster DB Aurora Serverless v1. Hal ini didukung untuk klaster DB Aurora Serverless v2.
Anda juga dapat menyimpan data cluster DB dan data snapshot cluster DB ke Amazon S3 menggunakan AWS Management Console AWS CLI,, atau Amazon. RDS API Untuk informasi selengkapnya, silakan lihat Mengekspor data klaster DB ke Amazon S3 dan Mengekspor data snapshot klaster DB ke Amazon S3.
Daftar Isi
Memberikan Aurora SQL akses Saya ke Amazon S3
Sebelum Anda dapat menyimpan data ke dalam bucket Amazon S3, Anda harus terlebih dahulu memberikan izin cluster Aurora My SQL DB Anda untuk mengakses Amazon S3.
Untuk memberi Aurora SQL akses Saya ke Amazon S3
-
Buat kebijakan AWS Identity and Access Management (IAM) yang menyediakan izin bucket dan objek yang memungkinkan klaster Aurora SQL My DB Anda mengakses Amazon S3. Untuk petunjuk, silakan lihat Membuat IAM kebijakan untuk mengakses sumber daya Amazon S3.
catatan
Di Aurora My SQL versi 3.05 dan yang lebih tinggi, Anda dapat mengenkripsi objek menggunakan AWS KMS kunci yang dikelola pelanggan. Untuk melakukannya, sertakan
kms:GenerateDataKey
izin dalam IAM kebijakan Anda. Untuk informasi selengkapnya, lihat Membuat kebijakan IAM untuk mengakses sumber daya AWS KMS.Anda tidak memerlukan izin ini untuk mengenkripsi objek menggunakan Kunci yang dikelola AWS atau kunci terkelola Amazon S3 SSE (-S3).
-
Buat IAM peran, dan lampirkan IAM kebijakan yang Anda buat Membuat IAM kebijakan untuk mengakses sumber daya Amazon S3 ke IAM peran baru. Untuk petunjuk, silakan lihat Membuat peran IAM untuk mengizinkan Amazon Aurora mengakses layanan AWS.
-
Untuk Aurora My SQL version 2, setel parameter cluster
aurora_select_into_s3_role
atauaws_default_s3_role
DB ke Amazon Resource Name (ARN) dari peran baruIAM. Jika IAM peran tidak ditentukan untukaurora_select_into_s3_role
, Aurora menggunakan IAM peran yang ditentukan dalam.aws_default_s3_role
Untuk Aurora My SQL versi 3, gunakan.
aws_default_s3_role
Jika klaster adalah bagian dari basis data global Aurora, atur parameter ini untuk setiap klaster Aurora dalam basis data global.
Untuk informasi selengkapnya tentang parameter klaster DB, lihat Parameter klaster DB dan instans DB Amazon Aurora.
-
Untuk mengizinkan pengguna database di klaster Aurora My SQL DB mengakses Amazon S3, kaitkan peran yang Anda buat Membuat peran IAM untuk mengizinkan Amazon Aurora mengakses layanan AWS dengan cluster DB.
Untuk basis data global Aurora, kaitkan peran dengan setiap klaster Aurora di basis data global.
Untuk informasi tentang mengaitkan IAM peran dengan cluster DB, lihatMengaitkan peran IAM dengan klaster DB Amazon Aurora MySQL.
-
Konfigurasikan klaster Aurora My SQL DB Anda untuk mengizinkan koneksi keluar ke Amazon S3. Untuk petunjuk, silakan lihat Mengaktifkan komunikasi jaringan dari Amazon Aurora ke layanan lain AWS.
Untuk basis data global Aurora, aktifkan koneksi keluar untuk setiap klaster Aurora di basis data global.
Memberikan hak istimewa untuk menyimpan data di Aurora My SQL
Pengguna basis data yang mengeluarkan pernyataan SELECT INTO OUTFILE S3
harus memiliki peran atau hak akses tertentu. Di Aurora My SQL versi 3, Anda memberikan peran tersebut. AWS_SELECT_S3_ACCESS
Di Aurora My SQL versi 2, Anda memberikan hak istimewa. SELECT
INTO S3
Pengguna administratif untuk klaster DB akan diberi peran atau hak akses yang sesuai secara default. Anda dapat memberikan hak akses kepada pengguna lain dengan menggunakan salah satu pernyataan berikut.
Gunakan pernyataan berikut untuk Aurora My SQL versi 3:
GRANT AWS_SELECT_S3_ACCESS TO '
user
'@'domain-or-ip-address
'
Tip
Saat Anda menggunakan teknik peran di Aurora My SQL versi 3, Anda juga dapat mengaktifkan peran dengan menggunakan pernyataan SET ROLE
ataurole_name
SET ROLE
ALL
. Jika Anda tidak terbiasa dengan sistem peran My SQL 8.0, Anda dapat mempelajari lebih lanjut diModel hak akses berbasis peran. Untuk detail selengkapnya, lihat Menggunakan peran
Hal ini hanya berlaku untuk sesi aktif saat ini. Ketika Anda terhubung kembali, Anda harus menjalankan SET ROLE
pernyataan lagi untuk memberikan hak istimewa. Untuk informasi selengkapnya, lihat SETROLEpernyataan
Anda dapat menggunakan parameter klaster DB activate_all_roles_on_login
untuk mengaktifkan semua peran secara otomatis saat pengguna terhubung ke instans DB. Ketika parameter ini disetel, Anda biasanya tidak perlu memanggil SET ROLE
pernyataan secara eksplisit untuk mengaktifkan peran. Untuk informasi selengkapnya, lihat activate_all_roles_on_login
Namun, Anda harus memanggil secara SET ROLE ALL
eksplisit di awal prosedur tersimpan untuk mengaktifkan peran, ketika prosedur yang disimpan dipanggil oleh pengguna yang berbeda.
Gunakan pernyataan berikut untuk Aurora My SQL versi 2:
GRANT SELECT INTO S3 ON *.* TO '
user
'@'domain-or-ip-address
'
AWS_SELECT_S3_ACCESS
Peran dan SELECT INTO S3
hak istimewa khusus untuk Amazon Aurora SQL My dan tidak tersedia untuk database Saya RDS atau untuk SQL SQL instans DB Saya. Jika Anda telah menyiapkan replikasi antara cluster Aurora SQL My DB sebagai sumber replikasi dan database SQL Saya sebagai klien replikasi, maka GRANT
pernyataan untuk peran atau hak istimewa menyebabkan replikasi berhenti dengan kesalahan. Anda dapat melewati kesalahan ini dengan aman untuk melanjutkan replikasi. Untuk melewati kesalahan pada instance RDS for My SQL DB, gunakan prosedur mysql_rds_skip_repl_error. Untuk melewati kesalahan pada SQL database Saya eksternal, gunakan variabel sistem slave_skip_errors (Aurora My version 2) atau variabel sistem replica_skip_errors
Menentukan jalur ke bucket Amazon S3
Sintaksis untuk menentukan jalur untuk menyimpan data dan file manifes di bucket Amazon S3 serupa dengan yang digunakan dalam pernyataan LOAD DATA FROM S3 PREFIX
, seperti yang ditunjukkan berikut ini.
s3
-region
://bucket-name
/file-prefix
Jalur tersebut mencakup nilai-nilai berikut:
-
region
(opsional) - AWS Wilayah yang berisi bucket Amazon S3 untuk menyimpan data. Nilai ini bersifat opsional. Jika Anda tidak menentukan nilairegion
, Aurora akan menyimpan file Anda ke Amazon S3 di wilayah yang sama dengan klaster DB Anda. -
bucket-name
– Nama bucket Amazon S3 untuk menyimpan data. Awalan objek yang mengidentifikasi jalur folder virtual didukung. -
file-prefix
– Awalan objek Amazon S3 yang mengidentifikasi file yang akan disimpan di Amazon S3.
Berkas data yang dibuat oleh pernyataan SELECT INTO OUTFILE S3
menggunakan jalur berikut, yang 00000
mewakili bilangan bulat 5 digit berbasis nol.
s3
-region
://bucket-name
/file-prefix
.part_00000
Misalnya, pernyataan SELECT INTO OUTFILE S3
menetapkan s3-us-west-2://bucket/prefix
sebagai jalur untuk menyimpan berkas data dan membuat tiga berkas data. Bucket Amazon S3 yang ditentukan berisi file data berikut.
-
s3-us-west-2://bucket/prefix.part_00000
-
s3-us-west-2://bucket/prefix.part_00001
-
s3-us-west-2://bucket/prefix.part_00002
Membuat manifes untuk menampilkan daftar file data
Anda dapat menggunakan SELECT INTO OUTFILE S3
pernyataan dengan MANIFEST ON
opsi untuk membuat file manifes dalam JSON format yang mencantumkan file teks yang dibuat oleh pernyataan. LOAD DATA FROM S3
Pernyataan tersebut dapat menggunakan file manifes untuk memuat file data kembali ke cluster Aurora My SQL DB. Untuk informasi selengkapnya tentang penggunaan manifes untuk memuat file data dari Amazon S3 ke dalam klaster Aurora My SQL DB, lihat. Menggunakan manifes untuk menentukan file data yang akan dimuat
File data yang disertakan dalam manifes yang dibuat oleh pernyataan SELECT INTO OUTFILE
S3
akan dicantumkan dalam urutan pembuatannya oleh pernyataan tersebut. Misalnya, pernyataan SELECT INTO OUTFILE S3
menetapkan s3-us-west-2://bucket/prefix
sebagai jalur untuk menyimpan file data serta membuat tiga file data dan sebuah file manifes. Bucket Amazon S3 yang ditentukan berisi file manifes bernama s3-us-west-2://bucket/prefix.manifest
, yang berisi informasi berikut.
{ "entries": [ { "url":"s3-us-west-2://bucket/prefix.part_00000" }, { "url":"s3-us-west-2://bucket/prefix.part_00001" }, { "url":"s3-us-west-2://bucket/prefix.part_00002" } ] }
SELECTINTOOUTFILES3
Anda dapat menggunakan pernyataan SELECT INTO OUTFILE S3
untuk meminta data dari klaster DB dan menyimpannya secara langsung ke dalam file teks yang dibatasi yang tersimpan di bucket Amazon S3.
File terkompresi tidak didukung. File terenkripsi didukung mulai dari Aurora My versi 2.09.0. SQL
Sintaks
SELECT [ALL | DISTINCT | DISTINCTROW ] [HIGH_PRIORITY] [STRAIGHT_JOIN] [SQL_SMALL_RESULT] [SQL_BIG_RESULT] [SQL_BUFFER_RESULT] [SQL_CACHE | SQL_NO_CACHE] [SQL_CALC_FOUND_ROWS]
select_expr
[,select_expr
...] [FROMtable_references
[PARTITIONpartition_list
] [WHEREwhere_condition
] [GROUP BY {col_name
|expr
|position
} [ASC | DESC], ... [WITH ROLLUP]] [HAVINGwhere_condition
] [ORDER BY {col_name
|expr
|position
} [ASC | DESC], ...] [LIMIT {[offset
,]row_count
|row_count
OFFSEToffset
}] INTO OUTFILE S3 's3_uri
' [CHARACTER SETcharset_name
] [export_options
] [MANIFEST {ON | OFF}] [OVERWRITE {ON | OFF}] [ENCRYPTION {ON | OFF | SSE_S3 | SSE_KMS ['cmk_id
']}]export_options
: [FORMAT {CSV|TEXT} [HEADER]] [{FIELDS | COLUMNS} [TERMINATED BY 'string
'] [[OPTIONALLY] ENCLOSED BY 'char
'] [ESCAPED BY 'char
'] ] [LINES [STARTING BY 'string
'] [TERMINATED BY 'string
'] ]
Parameter
Pernyataan SELECT INTO OUTFILE S3
menggunakan parameter wajib dan opsional berikut yang khusus untuk Aurora.
- s3-uri
-
Menentukan URI untuk awalan Amazon S3 untuk digunakan. Gunakan sintaks yang dijelaskan dalam Menentukan jalur ke bucket Amazon S3.
- FORMAT {CSV|TEXT} [HEADER]
-
Secara opsional menyimpan data dalam CSV format.
TEXT
Opsi ini adalah default dan menghasilkan format SQL ekspor Saya yang ada.Opsi
CSV
menghasilkan nilai data yang dipisahkan koma. CSVFormatnya mengikuti spesifikasi di RFC-4180. Jika Anda menentukan kata kunci opsional HEADER
, file output akan berisi satu baris header. Label di baris header sesuai dengan nama kolom dari pernyataanSELECT
. Anda dapat menggunakan CSV file untuk melatih model data untuk digunakan dengan layanan AWS ML. Untuk informasi selengkapnya tentang penggunaan data Aurora yang diekspor AWS dengan layanan ML, lihat. Mengekspor data ke Amazon S3 SageMaker untuk pelatihan model (Lanjutan) - MANIFEST{PADA |OFF}
-
Menunjukkan apakah file manifes dibuat di Amazon S3. File manifes adalah file JavaScript Object Notation (JSON) yang dapat digunakan untuk memuat data ke dalam cluster Aurora DB dengan
LOAD DATA FROM S3 MANIFEST
pernyataan tersebut. Untuk informasi selengkapnya tentangLOAD DATA FROM S3 MANIFEST
, lihat Memuat data ke dalam cluster Amazon Aurora My SQL DB dari file teks di bucket Amazon S3.Jika
MANIFEST ON
ditentukan dalam kueri, file manifes dibuat di Amazon S3 setelah semua file data dibuat dan diunggah. file manifes dibuat menggunakan jalur berikut:s3
-region
://bucket-name
/file-prefix
.manifestUntuk informasi selengkapnya tentang format konten file manifes, lihat Membuat manifes untuk menampilkan daftar file data.
- OVERWRITE{PADA |OFF}
-
Menunjukkan apakah file yang ada di bucket Amazon S3 yang ditentukan akan ditimpa. Jika
OVERWRITE ON
ditentukan, file yang ada yang cocok dengan awalan file dalam yang URI ditentukan dalam akans3-uri
ditimpa. Jika tidak, kesalahan akan muncul. - ENCRYPTION{PADA | OFF | SSE _S3 | SSE _ KMS ['
cmk_id
']} -
Menunjukkan apakah akan menggunakan enkripsi sisi server dengan kunci terkelola Amazon S3 (SSE-S3) atau AWS KMS keys (SSE-KMS, termasuk dan kunci yang dikelola pelanggan). Kunci yang dikelola AWS
SSE_KMS
PengaturanSSE_S3
dan tersedia di Aurora My SQL versi 3.05 dan lebih tinggi.Anda juga dapat menggunakan variabel sesi
aurora_select_into_s3_encryption_default
bukan klausaENCRYPTION
, seperti yang ditunjukkan pada contoh berikut. Gunakan salah satu SQL klausa atau variabel sesi, tetapi tidak keduanya.set session set session aurora_select_into_s3_encryption_default={ON | OFF | SSE_S3 | SSE_KMS};
SSE_KMS
PengaturanSSE_S3
dan tersedia di Aurora My SQL versi 3.05 dan lebih tinggi.Jika Anda mengatur
aurora_select_into_s3_encryption_default
ke nilai berikut:-
OFF
– Kebijakan enkripsi default bucket S3 akan diikuti. Nilai defaultaurora_select_into_s3_encryption_default
adalahOFF
. -
ON
atauSSE_S3
— Objek S3 dienkripsi menggunakan kunci terkelola Amazon S3 (-S3). SSE -
SSE_KMS
— Objek S3 dienkripsi menggunakan file. AWS KMS keyDalam hal ini, Anda juga menyertakan variabel sesi
aurora_s3_default_cmk_id
, misalnya:set session aurora_select_into_s3_encryption_default={SSE_KMS}; set session aurora_s3_default_cmk_id={NULL | '
cmk_id
'};-
Saat
aurora_s3_default_cmk_id
bernilaiNULL
, objek S3 dienkripsi menggunakan Kunci yang dikelola AWS. -
Jika
aurora_s3_default_cmk_id
berupa stringcmk_id
yang tidak kosong, objek S3 dienkripsi menggunakan kunci yang dikelola pelanggan.Nilai
cmk_id
tidak boleh berupa string kosong.
-
Saat Anda menggunakan perintah
SELECT INTO OUTFILE S3
, Aurora menentukan enkripsi sebagai berikut:-
Jika
ENCRYPTION
klausa hadir dalam SQL perintah, Aurora hanya bergantung pada nilaiENCRYPTION
, dan tidak menggunakan variabel sesi. -
Jika klausa
ENCRYPTION
tidak ada, Aurora mengandalkan nilai variabel sesi.
Untuk informasi selengkapnya, lihat Menggunakan enkripsi sisi server dengan kunci terkelola Amazon S3 (SSE-S3) dan Menggunakan enkripsi sisi server dengan kunci AWS KMS (-SSE) KMS di Panduan Pengguna Layanan Penyimpanan Sederhana Amazon.
-
Anda dapat menemukan detail lebih lanjut tentang parameter lain dalam SELECTLOADDATApernyataan
Pertimbangan
Jumlah file yang ditulis ke bucket Amazon S3 tergantung pada jumlah data yang dipilih oleh SELECT INTO OUTFILE S3
pernyataan dan ambang batas ukuran file untuk Aurora My. SQL Ambang batas ukuran file default adalah 6 gigabyte (GB). Jika data yang dipilih oleh pernyataan kurang dari ambang batas ukuran file, satu file akan dibuat; jika tidak, banyak file akan dibuat. Pertimbangan lain untuk file yang dibuat oleh pernyataan ini mencakup hal-hal berikut:
-
Aurora My SQL menjamin bahwa baris dalam file data tidak dibagi melintasi batas file. Untuk banyak file, ukuran setiap file data kecuali yang terakhir biasanya hampir sama dengan ambang batas ukuran file. Namun, terkadang jika ambang batas ukuran file tidak tercapai, akibatnya baris akan terbagi menjadi dua file data. Dalam hal ini, Aurora My SQL membuat file data yang menjaga baris tetap utuh, tetapi mungkin lebih besar dari ambang ukuran file.
-
Karena setiap
SELECT
pernyataan di Aurora My SQL berjalan sebagai transaksi atom,SELECT INTO OUTFILE S3
pernyataan yang memilih kumpulan data besar mungkin berjalan selama beberapa waktu. Jika pernyataan gagal karena alasan apa pun, Anda mungkin perlu memulai kembali dan mengeluarkan pernyataan tersebut lagi. Namun, jika pernyataan gagal, file yang sudah diunggah ke Amazon S3 tetap berada di bucket Amazon S3 yang ditentukan. Anda dapat menggunakan pernyataan lain untuk mengunggah data yang tersisa daripada memulai dari awal lagi. -
Jika jumlah data yang akan dipilih berukuran besar (lebih dari 25 GB), kami menyarankan Anda menggunakan beberapa pernyataan
SELECT INTO OUTFILE S3
untuk menyimpan data ke Amazon S3. Setiap pernyataan harus memilih bagian data yang berbeda untuk disimpan, dan juga menentukanfile_prefix
yang berbeda dalam parameters3-uri
untuk digunakan saat menyimpan file data. Dengan mempartisi data yang akan dipilih menggunakan beberapa pernyataan, kesalahan di satu pernyataan akan lebih mudah untuk dipulihkan. Jika terjadi kesalahan untuk satu pernyataan, hanya sebagian data yang perlu dipilih kembali dan diunggah ke Amazon S3. Penggunaan banyak pernyataan juga membantu menghindari satu transaksi yang berjalan lama, yang dapat meningkatkan performa. -
Jika beberapa pernyataan
SELECT INTO OUTFILE S3
yang menggunakanfile_prefix
yang sama di parameters3-uri
dijalankan secara paralel untuk memilih data yang diunggah ke dalam Amazon S3, perilakunya tidak akan ditentukan. -
Metadata, seperti skema tabel atau metadata file, tidak diunggah oleh Aurora My ke Amazon S3. SQL
-
Dalam beberapa kasus, Anda mungkin perlu menjalankan kembali kueri
SELECT INTO OUTFILE S3
, seperti untuk memulihkan dari kegagalan. Dalam kasus ini, Anda harus menghapus file data apa pun yang ada di bucket Amazon S3 dengan awalan file yang sama yang ditentukan dis3-uri
, atau menyertakanOVERWRITE ON
di kueriSELECT INTO OUTFILE S3
.
SELECT INTO OUTFILE S3
Pernyataan tersebut mengembalikan nomor SQL kesalahan saya yang khas dan respons pada keberhasilan atau kegagalan. Jika Anda tidak memiliki akses ke nomor SQL kesalahan dan respons saya, cara termudah untuk menentukan kapan selesai adalah dengan menentukan MANIFEST ON
dalam pernyataan. File manifes adalah file terakhir yang ditulis oleh pernyataan tersebut. Dengan kata lain, jika Anda memiliki file manifes, berarti pernyataan tersebut telah selesai.
Saat ini, tidak ada cara untuk memantau secara langsung progres pernyataan SELECT
INTO OUTFILE S3
saat dijalankan. Namun, misalkan Anda menulis sejumlah besar data dari Aurora My SQL ke Amazon S3 menggunakan pernyataan ini, dan Anda tahu ukuran data yang dipilih oleh pernyataan tersebut. Dalam kasus ini, Anda dapat memperkirakan progresnya dengan memantau pembuatan file data di Amazon S3.
Untuk melakukannya, Anda dapat menggunakan fakta bahwa sebuah file data akan dibuat di bucket Amazon S3 yang ditentukan untuk setiap 6 GB data yang dipilih oleh pernyataan tersebut. Bagilah ukuran data yang dipilih dengan 6 GB untuk mendapatkan perkiraan jumlah file data yang akan dibuat. Anda kemudian dapat memperkirakan progres pernyataan dengan memantau jumlah file yang diunggah ke Amazon S3 saat pernyataan berjalan.
Contoh
Pernyataan berikut memilih semua data dalam employees
tabel dan menyimpan data ke dalam bucket Amazon S3 yang berada di wilayah berbeda dari cluster Aurora SQL My DB. Pernyataan tersebut membuat file data yang setiap bidangnya diterminasi dengan karakter koma (,
) dan setiap barisnya diterminasi dengan karakter baris baru (\n
). Pernyataan tersebut menampilkan kesalahan jika file yang cocok dengan awalan file sample_employee_data
ada di bucket Amazon S3 yang ditentukan.
SELECT * FROM employees INTO OUTFILE S3 's3-us-west-2://aurora-select-into-s3-pdx/sample_employee_data' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n';
Pernyataan berikut memilih semua data dalam employees
tabel dan menyimpan data ke dalam bucket Amazon S3 yang berada di wilayah yang sama dengan cluster Aurora SQL My DB. Pernyataan tersebut membuat file data yang setiap bidangnya diterminasi dengan karakter koma (,
) dan setiap barisnya diterminasi dengan karakter baris baru (\n
), serta membuat juga sebuah file manifes. Pernyataan tersebut menampilkan kesalahan jika file yang cocok dengan awalan file sample_employee_data
ada di bucket Amazon S3 yang ditentukan.
SELECT * FROM employees INTO OUTFILE S3 's3://aurora-select-into-s3-pdx/sample_employee_data' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' MANIFEST ON;
Pernyataan berikut memilih semua data di tabel employees
dan menyimpan data ke dalam bucket Amazon S3 yang berada di wilayah yang berbeda dari klaster DB Aurora. Pernyataan tersebut membuat file data yang setiap bidangnya diterminasi dengan karakter koma (,
) dan setiap barisnya diterminasi dengan karakter baris baru (\n
). Pernyataan tersebut menimpa file apa pun yang ada yang cocok dengan awalan file sample_employee_data
di bucket Amazon S3 yang ditentukan.
SELECT * FROM employees INTO OUTFILE S3 's3-us-west-2://aurora-select-into-s3-pdx/sample_employee_data' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' OVERWRITE ON;
Pernyataan berikut memilih semua data dalam employees
tabel dan menyimpan data ke dalam bucket Amazon S3 yang berada di wilayah yang sama dengan cluster Aurora SQL My DB. Pernyataan tersebut membuat file data yang setiap bidangnya diterminasi dengan karakter koma (,
) dan setiap barisnya diterminasi dengan karakter baris baru (\n
), serta membuat juga sebuah file manifes. Pernyataan tersebut menimpa file apa pun yang ada yang cocok dengan awalan file sample_employee_data
di bucket Amazon S3 yang ditentukan.
SELECT * FROM employees INTO OUTFILE S3 's3://aurora-select-into-s3-pdx/sample_employee_data' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' MANIFEST ON OVERWRITE ON;