Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Amazon EMR Rilis 6.0.0
versi aplikasi 6.0.0
Rilis ini mencakup aplikasi berikut: Ganglia
Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon EMR ini dan versi aplikasi dalam tiga rilis EMR Amazon sebelumnya (bila berlaku).
Untuk riwayat lengkap versi aplikasi untuk setiap rilis Amazon EMR, lihat topik berikut:
emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | |
---|---|---|---|---|
AWS SDK for Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Skala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 |
AmazonCloudWatchAgent | - | - | - | - |
kuala | - | - | - | - |
Flink | 1.11.0 | 1.11.0 | - | - |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 |
Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 |
Gunung es | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 |
Livy | 0.7.0 | 0.7.0 | 0.6.0 | 0.6.0 |
MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 |
Mahout | - | - | - | - |
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | - | - |
Presto | 0,232 | 0,232 | 0,230 | 0,230 |
Spark | 3.0.0 | 3.0.0 | 2.4.4 | 2.4.4 |
Sqoop | 1.4.7 | 1.4.7 | - | - |
TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestosQL) | 338 | 338 | - | - |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
catatan rilis 6.0.0
Catatan rilis berikut mencakup informasi untuk rilis Amazon EMR 6.0.0.
Tanggal rilis awal: 10 Maret 2020
Aplikasi-aplikasi yang didukung
AWS SDK for Java versi 1.11.711
Ganglia versi 3.7.2
Hadoop versi 3.2.1
HBase versi 2.2.3
HCatalog versi 3.1.2
Hive versi 3.1.2
Hudi versi 0.5.0-incubating
Hue versi 4.4.0
JupyterHub versi 1.0.0
Livy versi 0.6.0
MXNet versi 1.5.1
Oozie versi 5.1.0
Phoenix versi 5.0.0
Presto versi 0.230
Spark versi 2.4.4
TensorFlow versi 1.14.0
Zeppelin versi 0.9.0-SNAPSHOT
Zookeeper versi 3.4.14
Konektor dan driver: DynamoDB Connector 4.14.0
catatan
Flink, Sqoop, Babi, dan Mahout tidak tersedia di Amazon EMR versi 6.0.0.
Fitur baru
YARN Docker Runtime Support - aplikasi YARN, seperti tugas Spark, sekarang dapat berjalan dalam konteks kontainer Docker. Hal ini memungkinkan Anda untuk dengan mudah menentukan dependensi dalam gambar Docker tanpa perlu menginstal perpustakaan kustom di klaster Amazon EMR Anda. Untuk informasi selengkapnya, lihat Konfigurasi integrasi Docker dan Jalankan aplikasi Spark dengan Docker menggunakan Amazon EMR 6.0.0.
-
Hive LLAP Support - Hive sekarang mendukung modus eksekusi LLAP untuk meningkatkan performa kueri. Untuk informasi selengkapnya, lihat Menggunakan Hive LLAP.
Perubahan, penyempurnaan, dan masalah yang diselesaikan
-
Ini adalah rilis untuk memperbaiki masalah dengan Amazon EMR Scaling ketika gagal meningkatkan/menurunkan skala cluster dengan sukses atau menyebabkan kegagalan aplikasi.
Memperbaiki masalah saat permintaan penskalaan gagal untuk klaster besar yang sangat dimanfaatkan saat daemon on-cluster Amazon EMR menjalankan aktivitas pemeriksaan kesehatan, seperti mengumpulkan status node YARN dan status node HDFS. Ini terjadi karena daemon on-cluster tidak dapat mengkomunikasikan data status kesehatan node ke komponen EMR Amazon internal.
Peningkatan daemon EMR on-cluster untuk melacak status node dengan benar saat alamat IP digunakan kembali untuk meningkatkan keandalan selama operasi penskalaan.
SPARK-29683
. Memperbaiki masalah di mana kegagalan pekerjaan terjadi selama penskalaan klaster karena Spark mengasumsikan semua node yang tersedia tidak terdaftar. BENANG 9011.
Memperbaiki masalah di mana kegagalan pekerjaan terjadi karena kondisi balapan dalam penonaktifan YARN saat cluster mencoba menaikkan atau menurunkan skala. Memperbaiki masalah dengan kegagalan langkah atau pekerjaan selama penskalaan klaster dengan memastikan bahwa status node selalu konsisten antara daemon on-cluster EMR Amazon dan YARN/HDFS.
Memperbaiki masalah saat operasi klaster seperti pengurangan skala dan pengiriman langkah gagal untuk kluster EMR Amazon yang diaktifkan dengan otentikasi Kerberos. Ini karena daemon on-cluster EMR Amazon tidak memperbarui tiket Kerberos, yang diperlukan untuk berkomunikasi secara aman dengan HDFS/YARN yang berjalan pada node utama.
Rilis Amazon EMR yang lebih baru memperbaiki masalah dengan batas “Max open files” yang lebih rendah pada yang lebih lama AL2 di Amazon EMR. Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru sekarang menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi.
Amazon Linux
Amazon Linux 2 adalah sistem operasi untuk seri rilis EMR 6.x.
systemd
digunakan untuk pengelolaan layanan bukanupstart
yang digunakan dalam Amazon Linux 1.
Java Development Kit (JDK)
Corretto JDK 8 adalah JDK default untuk seri rilis EMR 6.x.
Scala
Scala 2.12 digunakan dengan Apache Spark dan Apache Livy.
Python 3
Python 3 sekarang adalah versi default Python di EMR.
Label simpul YARN
Dimulai dengan Amazon EMR seri rilis 6.x, fitur label simpul YARN dinonaktifkan secara default. Proses utama aplikasi dapat berjalan pada kedua inti dan tugas simpul secara default. Anda dapat mengaktifkan fitur label simpul YARN dengan mengkonfigurasi properti berikut:
yarn.node-labels.enabled
danyarn.node-labels.am.default-node-label-expression
. Untuk informasi selengkapnya, lihat Memahami Node Primer, Inti, dan Tugas.
Masalah yang diketahui
-
Turunkan batas “Maks open files” pada yang lebih lama AL2 [diperbaiki dalam rilis yang lebih baru]. Rilis Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, dan emr-6.2.0 didasarkan pada versi lama dari Amazon Linux 2 (), yang memiliki pengaturan ulimit yang lebih rendah untuk “File terbuka maksimum” ketika kluster Amazon EMR dibuat dengan AMI default. AL2 Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi. Rilis dengan batas file terbuka yang lebih rendah menyebabkan kesalahan “Terlalu banyak file terbuka” saat mengirimkan pekerjaan Spark. Dalam rilis yang terkena dampak, AMI default Amazon EMR memiliki pengaturan ulimit default 4096 untuk “File terbuka maksimum,” yang lebih rendah dari batas file 65536 di AMI Amazon Linux 2 terbaruAmazon. Pengaturan ulimit yang lebih rendah untuk "Maksimal file terbuka" menyebabkan kegagalan tugas Spark ketika driver dan pelaksana mencoba untuk membuka lebih dari 4096 file. Untuk memperbaiki masalah, Amazon EMR memiliki skrip tindakan bootstrap (BA) yang menyesuaikan pengaturan ulimit saat pembuatan klaster.
Jika Anda menggunakan versi EMR Amazon yang lebih lama yang tidak memiliki perbaikan permanen untuk masalah ini, solusi berikut memungkinkan Anda untuk secara eksplisit mengatur ulimit pengontrol instans ke maksimum 65536 file.
Mengatur secara eksplisit ulimit dari baris perintah
Edit
/etc/systemd/system/instance-controller.service
untuk menambahkan parameter berikut ke bagian Layanan.LimitNOFILE=65536
LimitNPROC=65536
Mulai ulang InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Tetapkan ulimit menggunakan tindakan bootstrap (BA)
Anda juga dapat menggunakan skrip tindakan bootstrap (BA) untuk mengkonfigurasi ulimit instans-pengendali menjadi 65536 file saat pembuatan klaster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
Spark interaktif shell, termasuk PySpark, SparkR, dan spark-shell, tidak mendukung penggunaan Docker dengan pustaka tambahan.
-
Untuk menggunakan Python 3 dengan Amazon EMR versi 6.0.0, Anda harus menambahkan
PATH
keyarn.nodemanager.env-whitelist
. -
Fungsionalitas Live Long and Process (LLAP) tidak didukung saat Anda menggunakan Katalog Data AWS Glue sebagai metastore untuk Hive.
-
Bila menggunakan Amazon EMR 6.0.0 dengan integrasi Spark dan Docker, Anda harus mengkonfigurasi instans di klaster Anda dengan tipe instans yang sama dan jumlah volume EBS yang sama untuk menghindari gagal ketika mengirimkan tugas Spark dengan waktu aktif Docker.
-
Di Amazon EMR 6.0.0, pada mode penyimpanan Amazon HBase S3 dipengaruhi oleh masalah HBASE-24286.
HBase master tidak dapat menginisialisasi saat cluster dibuat menggunakan data S3 yang ada. -
Masalah yang diketahui dalam cluster dengan beberapa node primer dan otentikasi Kerberos
Jika Anda menjalankan cluster dengan beberapa node utama dan otentikasi Kerberos di Amazon EMR rilis 5.20.0 dan yang lebih baru, Anda mungkin mengalami masalah dengan operasi klaster seperti penurunan skala atau pengiriman langkah, setelah klaster berjalan selama beberapa waktu. Periode waktunya tergantung pada masa validitas tiket Kerberos yang Anda tetapkan. Masalah menurunkan skala akan berdampak pada permintaan menurunkan skala otomatis dan permintaan menurunkan skala eksplisit yang Anda kirimkan. Operasi klaster tambahan juga dapat terkena dampak.
Pemecahan masalah:
-
SSH sebagai
hadoop
pengguna ke node utama utama dari cluster EMR dengan beberapa node primer. -
Jalankan perintah berikut untuk memperbarui tiket Kerberos untuk pengguna
hadoop
.kinit -kt <keytab_file> <principal>
Biasanya, fail keytab terletak di
/etc/hadoop.keytab
dan file utama-nya dalam bentukhadoop/<hostname>@<REALM>
.
catatan
Pemecahan masalah ini akan efektif untuk jangka waktu selama tiket Kerberos berlaku. Durasi ini adalah 10 jam secara default, tetapi dapat dikonfigurasi dengan pengaturan Kerberos Anda. Anda harus menjalankan kembali perintah di atas setelah tiket Kerberos berakhir.
-
versi komponen 6.0.0
Komponen yang diinstal oleh Amazon EMR dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Sedangkan komponen lainnya bersifak unik untuk Amazon EMR dan diinstal untuk proses sistem dan fitur. Ini biasanya dimulai dengan emr
atau aws
. Paket aplikasi big data dalam rilis Amazon EMR terbaru biasanya versi terbaru yang ditemukan di komunitas. Kami menyediakan rilis komunitas di Amazon EMR secepat mungkin.
Beberapa komponen yang ada di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk
. CommunityVersion
-amzn-EmrVersion
dimulai dari 0. Misalnya, jika komponen komunitas open source bernama EmrVersion
myapp-component
dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam rilis EMR Amazon yang berbeda, versi rilisnya terdaftar sebagai. 2.2-amzn-2
Komponen | Versi | Deskripsi |
---|---|---|
aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK |
emr-ddb | 4.14.0 | Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop. |
emr-goodies | 3.0.0 | Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop. |
emr-kinesis | 3.5.0 | Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop. |
emr-s3-dist-cp | 2.14.0 | Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3. |
emr-s3-select | 1.5.0 | EMR S3Select Connector |
emrfs | 2.39.0 | Konektor Amazon S3 untuk aplikasi ekosistem Hadoop. |
ganglia-monitor | 3.7.2 | Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia. |
ganglia-metadata-collector | 3.7.2 | Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia. |
ganglia-web | 3.7.1 | Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia. |
hadoop-client | 3.2.1-amzn-0 | Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'. |
hadoop-hdfs-datanode | 3.2.1-amzn-0 | Layanan tingkat simpul HDFS untuk menyimpan blok. |
hadoop-hdfs-library | 3.2.1-amzn-0 | Klien dan perpustakaan baris perintah HDFS |
hadoop-hdfs-namenode | 3.2.1-amzn-0 | Layanan HDFS untuk melacak nama file dan lokasi blok. |
hadoop-hdfs-journalnode | 3.2.1-amzn-0 | Layanan HDFS untuk mengelola jurnal filesystem Hadoop pada klaster HA. |
hadoop-httpfs-server | 3.2.1-amzn-0 | Titik akhir HTTP untuk operasi HDFS. |
hadoop-kms-server | 3.2.1-amzn-0 | Server manajemen kunci kriptografi berdasarkan API Hadoop. KeyProvider |
hadoop-mapred | 3.2.1-amzn-0 | MapReduce pustaka mesin eksekusi untuk menjalankan MapReduce aplikasi. |
hadoop-yarn-nodemanager | 3.2.1-amzn-0 | Layanan YARN untuk mengelola kontainer pada simpul individu. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | Layanan YARN untuk mengalokasikan dan mengelola sumber daya klaster dan aplikasi terdistribusi. |
hadoop-yarn-timeline-server | 3.2.1-amzn-0 | Layanan untuk mengambil informasi terkini dan historis untuk aplikasi YARN. |
hbase-hmaster | 2.2.3 | Layanan untuk HBase cluster yang bertanggung jawab untuk koordinasi Daerah dan pelaksanaan perintah administratif. |
hbase-region-server | 2.2.3 | Layanan untuk melayani satu atau lebih HBase wilayah. |
hbase-client | 2.2.3 | HBase klien baris perintah. |
hbase-rest-server | 2.2.3 | Layanan menyediakan titik akhir RESTful HTTP untuk HBase. |
hbase-thrift-server | 2.2.3 | Layanan menyediakan titik akhir Thrift ke. HBase |
hcatalog-client | 3.1.2-amzn-0 | Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server. |
hcatalog-server | 3.1.2-amzn-0 | Penyediaan layanan HCatalog, tabel dan lapisan manajemen penyimpanan untuk aplikasi terdistribusi. |
hcatalog-webhcat-server | 3.1.2-amzn-0 | Titik akhir HTTP menyediakan antarmuka REST ke HCatalog. |
hive-client | 3.1.2-amzn-0 | Klien baris perintah Hive. |
hive-hbase | 3.1.2-amzn-0 | Klien Hive-hbase. |
hive-metastore-server | 3.1.2-amzn-0 | Layanan untuk mengakses metastore Hive, repositori semantik yang menyimpan metadata untuk SQL pada operasi Hadoop. |
hive-server2 | 3.1.2-amzn-0 | Layanan untuk menerima kueri Hive sebagai permintaan web. |
hudi | 0.5.0-incubating-amzn-1 | Kerangka kerja pemrosesan tambahan untuk menyalakan alur data pada latensi rendah dan efisiensi tinggi. |
hudi-presto | 0.5.0-incubating-amzn-1 | Perpustakaan paket untuk menjalankan Presto dengan Hudi. |
hue-server | 4.4.0 | Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop |
jupyterhub | 1.0.0 | Server multi-pengguna untuk notebook Jupyter |
livy-server | 0.6.0-incubating | Antarmuka REST untuk berinteraksi dengan Apache Spark |
nginx | 1.12.1 | nginx [engine x] adalah server HTTP dan server proksi balik |
mxnet | 1.5.1 | Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning. |
mariadb-server | 5.5.64+ | Server basis data MariaDB. |
nvidia-cuda | 9.2.88 | Driver Nvidia dan kit alat Cuda |
oozie-client | 5.1.0 | Klien baris perintah Oozie. |
oozie-server | 5.1.0 | Layanan untuk menerima permintaan alur kerja Oozie. |
opencv | 3.4.0 | Perpustakaan Visi Komputer Sumber Terbuka. |
phoenix-library | 5.0.0- -2.0 HBase | Perpustakaan phoenix untuk server dan klien |
phoenix-query-server | 5.0.0- -2.0 HBase | Sebuah server ringan yang menyediakan akses JDBC serta Protocol Buffers dan akses format JSON ke API Avatica |
presto-coordinator | 0,230 | Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker. |
presto-worker | 0,230 | Layanan untuk mengeksekusi potongan kueri. |
presto-client | 0,230 | Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai. |
r | 3.4.3 | Proyek R untuk Komputasi Statistik |
spark-client | 2.4.4 | Klien baris perintah Spark. |
spark-history-server | 2.4.4 | Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark. |
spark-on-yarn | 2.4.4 | Mesin eksekusi dalam memori untuk YARN. |
spark-yarn-slave | 2.4.4 | Perpustakaan Apache Spark yang dibutuhkan oleh slave YARN. |
tensorflow | 1.14.0 | TensorFlow pustaka perangkat lunak open source untuk perhitungan numerik kinerja tinggi. |
tez-on-yarn | 0.9.2 | Aplikasi dan perpustakaan tez YARN. |
webserver | 2.4.41+ | Server HTTP Apache. |
zeppelin-server | 0.9.0-SNAPSHOT | Notebook berbasis web yang memungkinkan analisis data interaktif. |
zookeeper-server | 3.4.14 | Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup. |
zookeeper-client | 3.4.14 | ZooKeeper klien baris perintah. |
klasifikasi konfigurasi 6.0.0
Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering kali bersesuaian dengan file XML konfigurasi untuk aplikasi, seperti hive-site.xml
. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.
Klasifikasi | Deskripsi |
---|---|
capacity-scheduler | Ubah nilai dalam file capacity-scheduler.xml Hadoop. |
container-executor | Ubah nilai dalam file container-executor.cfg Hadoop YARN ini. |
container-log4j | Ubah nilai dalam file container-log4j.properties Hadoop YARN. |
core-site | Ubah nilai dalam file core-site.xml Hadoop. |
emrfs-site | Ubah pengaturan EMRFS. |
hadoop-env | Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop. |
hadoop-log4j | Ubah nilai dalam file log4j.properties Hadoop ini. |
hadoop-ssl-server | Ubah konfigurasi server ssl hadoop |
hadoop-ssl-client | Ubah konfigurasi klien ssl hadoop |
hbase | Pengaturan Amazon EMR-curated untuk Apache. HBase |
hbase-env | Ubah nilai HBase di lingkungan. |
hbase-log4j | Ubah nilai dalam file HBase hbase-log4j.properties. |
hbase-metrics | Ubah nilai dalam file HBase hadoop-metrics2-hbase.properties. |
hbase-policy | Ubah nilai dalam HBase file hbase-policy.xml. |
hbase-site | Ubah nilai dalam HBase file hbase-site.xml. |
hdfs-encryption-zones | Konfigurasikan zona enkripsi HDFS. |
hdfs-env | Ubah nilai dalam lingkungan HDFS. |
hdfs-site | Ubah nilai dalam hdfs-site.xml HDFS. |
hcatalog-env | Ubah nilai HCatalog di lingkungan. |
hcatalog-server-jndi | Ubah nilai di HCatalog jndi.properties. |
hcatalog-server-proto-hive-site | Ubah nilai HCatalog proto-hive-site dalam.xml's. |
hcatalog-webhcat-env | Ubah nilai di lingkungan HCatalog WebHCat. |
hcatalog-webhcat-log4j2 | Ubah nilai di HCat log4j2.properties HCatalog Web. |
hcatalog-webhcat-site | Ubah nilai dalam file webhcat-site.xml HCatalog WebHCat. |
hive | Pengaturan dikurasi Amazon EMR untuk Apache Hive. |
hive-beeline-log4j2 | Ubah nilai dalam file beeline-log4j2.properties Hive. |
hive-parquet-logging | Ubah nilai dalam file parquet-logging.properties Hive. |
hive-env | Ubah nilai dalam lingkungan Hive. |
hive-exec-log4j2 | Ubah nilai dalam file hive-exec-log 4j2.properties Hive. |
hive-llap-daemon-log4j2 | Ubah nilai dalam file llap-daemon-log 4j2.properties Hive. |
hive-log4j2 | Ubah nilai dalam file hive-log4j2.properties Hive. |
hive-site | Ubah nilai dalam file hive-site.xml Hive |
hiveserver2-site | Ubah nilai dalam file hiveserver2-site.xml Hive Server2 |
hue-ini | Ubah nilai dalam file ini Hue |
httpfs-env | Ubah nilai di lingkungan HTTPFS. |
httpfs-site | Ubah nilai dalam file httpfs-site.xml Hadoop. |
hadoop-kms-acls | Ubah nilai dalam file kms-acls.xml Hadoop. |
hadoop-kms-env | Ubah nilai dalam lingkungan Hadoop KMS. |
hadoop-kms-log4j | Ubah nilai dalam file kms-log4j.properties Hadoop. |
hadoop-kms-site | Ubah nilai dalam file kms-site.xml Hadoop. |
jupyter-notebook-conf | Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook. |
jupyter-hub-conf | Ubah nilai dalam JupyterHubs file jupyterhub_config.py. |
jupyter-s3-conf | Konfigurasikan persistensi Jupyter Notebook S3. |
jupyter-sparkmagic-conf | Ubah nilai dalam file config.json Sparkmagic. |
livy-conf | Ubah nilai dalam file livy.conf Livy. |
livy-env | Ubah nilai di lingkungan Livy. |
livy-log4j | Ubah pengaturan Livy log4j.properties. |
mapred-env | Ubah nilai di lingkungan MapReduce aplikasi. |
mapred-site | Ubah nilai dalam file mapred-site.xml MapReduce aplikasi. |
oozie-env | Ubah nilai di lingkungan Oozie. |
oozie-log4j | Ubah nilai dalam file oozie-log4j.properties Oozie. |
oozie-site | Ubah nilai dalam file oozie-site.xml Oozie. |
phoenix-hbase-metrics | Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix. |
phoenix-hbase-site | Ubah nilai dalam file hbase-site.xml Phoenix. |
phoenix-log4j | Ubah nilai dalam file log4j.properties Phoenix. |
phoenix-metrics | Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix. |
presto-log | Ubah nilai dalam file log.properties Presto. |
presto-config | Ubah nilai dalam file config.properties Presto. |
presto-password-authenticator | Ubah nilai dalam file password-authenticator.properties Presto. |
presto-env | Ubah nilai dalam file presto-env.sh Presto. |
presto-node | Ubah nilai dalam file node.properties Presto. |
presto-connector-blackhole | Ubah nilai dalam file blackhole.properties Presto. |
presto-connector-cassandra | Ubah nilai dalam file cassandra.properties Presto. |
presto-connector-hive | Ubah nilai dalam file hive.properties Presto. |
presto-connector-jmx | Ubah nilai dalam file jmx.properties Presto. |
presto-connector-kafka | Ubah nilai dalam file kafka.properties Presto. |
presto-connector-localfile | Ubah nilai dalam file localfile.properties Presto. |
presto-connector-memory | Ubah nilai dalam file memory.properties Presto. |
presto-connector-mongodb | Ubah nilai dalam file mongodb.properties Presto. |
presto-connector-mysql | Ubah nilai dalam file mysql.properties Presto. |
presto-connector-postgresql | Ubah nilai dalam file postgresql.properties Presto. |
presto-connector-raptor | Ubah nilai dalam file raptor.properties Presto. |
presto-connector-redis | Ubah nilai dalam file redis.properties Presto. |
presto-connector-redshift | Ubah nilai dalam file redshift.properties Presto. |
presto-connector-tpch | Ubah nilai dalam file tpch.properties Presto. |
presto-connector-tpcds | Ubah nilai dalam file tpcds.properties Presto. |
ranger-kms-dbks-site | Ubah nilai dalam file dbks-site.xml Ranger KMS. |
ranger-kms-site | Ubah nilai dalam ranger-kms-site file.xml. dari Ranger KMS. |
ranger-kms-env | Ubah nilai di lingkungan Ranger KMS. |
ranger-kms-log4j | Ubah nilai dalam file kms-log4j.properties Ranger KMS. |
ranger-kms-db-ca | Ubah nilai untuk file CA pada S3 untuk koneksi MySQL SSL dengan Ranger KMS. |
recordserver-env | Ubah nilai di lingkungan EMR RecordServer . |
recordserver-conf | Ubah nilai dalam file erver.properties EMR RecordServer. |
recordserver-log4j | Ubah nilai dalam file log4j.properties EMR RecordServer. |
spark | Pengaturan terkurasi Amazon EMR untuk Apache Spark. |
spark-defaults | Ubah nilai dalam file spark-defaults.conf Spark. |
spark-env | Ubah nilai di lingkungan Spark. |
spark-hive-site | Ubah nilai dalam file hive-site.xml Spark |
spark-log4j | Ubah nilai dalam file log4j.properties Spark. |
spark-metrics | Ubah nilai dalam file metrics.properties Spark. |
tez-site | Ubah nilai dalam file tez-site.xml Tez. |
yarn-env | Ubah nilai di lingkungan YARN. |
yarn-site | Ubah nilai dalam file yarn-site.xml YARN. |
zeppelin-env | Ubah nilai di lingkungan Zeppelin. |
zookeeper-config | Ubah nilai dalam ZooKeeper file zoo.cfg. |
zookeeper-log4j | Ubah nilai dalam file ZooKeeper log4j.properties. |