Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Menjalankan skrip Spark SQL melaluiStartJobRunAPI
Amazon EMR pada rilis EKS 6.7.0 dan yang lebih tinggi menyertakan driver pekerjaan Spark SQL sehingga Anda dapat menjalankan skrip Spark SQL melaluiStartJobRun
API. Anda dapat menyediakan file entry-point SQL untuk langsung menjalankan kueri Spark SQL di Amazon EMR di EKS denganStartJobRun
API, tanpa modifikasi pada skrip SQL Spark yang ada. Tabel berikut mencantumkan parameter Spark yang didukung untuk pekerjaan Spark SQL melaluiStartJobRunAPI.
Anda dapat memilih dari parameter Spark berikut untuk dikirim ke pekerjaan Spark SQL. Gunakan parameter ini untuk mengganti properti Spark default.
Opsi | Deskripsi |
---|---|
--nama NAMA |
Nama Aplikasi |
-guci | Daftar dipisahkan koma guci untuk disertakan dengan driver dan mengeksekusi classpath. |
--paket | Daftar dipisahkan koma koordinat maven guci untuk memasukkan pada driver dan classpaths pelaksana. |
--exclude-paket | Daftar grup yang dipisahkan koma: artifactId, untuk dikecualikan saat menyelesaikan dependensi yang disediakan dalam —packages untuk menghindari konflik ketergantungan. |
--repositori | Daftar dipisahkan koma dari repositori jarak jauh tambahan untuk mencari koordinat maven yang diberikan dengan —packages. |
-file FILE | Daftar file yang dipisahkan koma untuk ditempatkan di direktori kerja masing-masing pelaksana. |
--conf PROP = NILAI | Properti konfigurasi percikan. |
--properti-berkas BERKAS | Path ke file dari mana untuk memuat properti tambahan. |
-driver-memori MEM | Memori untuk pengemudi. Default 1024MB. |
--driver-java-options | Opsi Java tambahan untuk diteruskan ke pengemudi. |
--driver-library-path | Ekstra entri jalur perpustakaan untuk diteruskan ke pengemudi. |
--driver-class-path | Entri classpath ekstra untuk diteruskan ke pengemudi. |
--executor-memori MEM | Memori per pelaksana. Default 1GB. |
-driver-core NUM | Jumlah core yang digunakan oleh pengemudi. |
--total-executor-coresNUM | Total core untuk semua pelaksana. |
--executor-core NUM | Jumlah core yang digunakan oleh masing-masing pelaksana. |
-num-pelaksana NUM | Jumlah pelaksana yang akan diluncurkan. |
-hivevar <key=nilai> | Substitusi variabel untuk diterapkan pada perintah Hive, misalnya,-hivevar
A=B |
-hiveconf <properti = nilai> | Nilai yang digunakan untuk properti yang diberikan. |
Untuk pekerjaan Spark SQL, buatstart-job-run-request.json mengajukan dan menentukan parameter yang diperlukan untuk menjalankan pekerjaan Anda, seperti dalam contoh berikut:
{ "name": "
myjob
", "virtualClusterId": "123456
", "executionRoleArn": "iam_role_name_for_job_execution
", "releaseLabel": "emr-6.7.0-latest
", "jobDriver": { "sparkSqlJobDriver": { "entryPoint": "entryPoint_location
", "sparkSqlParameters": "--conf spark.executor.instances=2 --conf spark.executor.memory=2G --conf spark.executor.cores=2 --conf spark.driver.cores=1" } }, "configurationOverrides": { "applicationConfiguration": [ { "classification": "spark-defaults", "properties": { "spark.driver.memory":"2G" } } ], "monitoringConfiguration": { "persistentAppUI": "ENABLED", "cloudWatchMonitoringConfiguration": { "logGroupName": "my_log_group
", "logStreamNamePrefix": "log_stream_prefix
" }, "s3MonitoringConfiguration": { "logUri": "s3://my_s3_log_location
" } } } }