Amazon EMR Rilis 6.1.0 - Amazon EMR

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Amazon EMR Rilis 6.1.0

Versi aplikasi

Aplikasi-aplikasi berikut didukung dalam rilis ini: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, PrestoSQL, Spark, Sqoop, TensorFlow, Tez, Zeppelin, dan ZooKeeper.

Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon EMR ini dan versi aplikasi dalam tiga rilis Amazon EMR Amazon EMR ini (jika berlaku).

Untuk riwayat komprehensif versi aplikasi untuk setiap rilis Amazon EMR, lihat topik berikut:

Informasi versi aplikasi
emr-6.1.1 emr-6.1.0 emr-6.0.1 emr-6.0.0
AWS SDK for Java 1.11.8281.11.8281.11.7111.11.711
Flink1.11.01.11.0 - -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.52.2.52.2.32.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-10.5.0-incubating-amzn-1
Hue4.7.14.7.14.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.0.01.0.0
Livy0.7.00.7.00.6.00.6.0
MXNet1.6.01.6.01.5.11.5.1
Mahout - - - -
Oozie5.2.05.2.05.1.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.0 - -
Presto0,2320,2320,2300,230
Spark3.0.03.0.02.4.42.4.4
Sqoop1.4.71.4.7 - -
TensorFlow2.1.02.1.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)338338 - -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

Catatan rilis

Catatan rilis berikut mencakup informasi untuk rilis Amazon EMR versi rilis 6.1.0. Perubahan bersifat relatif terhadap versi 6.0.0.

Tanggal rilis awal: 4 September 2020

Tanggal terakhir diperbarui: 15 Oktober 2020

Aplikasi-aplikasi yang didukung
  • AWS SDK for Java versi 1.11.828

  • Flink versi 1.11.0

  • Ganglia versi 3.7.2

  • Hadoop versi 3.2.1-amzn-1

  • HBase versi 2.2.5

  • HBase-operator-tools 1.0.0

  • HCatalog versi 3.1.2-amzn-0

  • Hive versi 3.1.2-amzn-1

  • Hudi versi 0.5.2-incubating

  • Hue versi 4.7.1

  • JupyterHub versi 1.1.0

  • Livy versi 0.7.0

  • MXNet versi 1.6.0

  • Oozie versi 5.2.0

  • Phoenix versi 5.0.0

  • Presto versi 0.232

  • PrestoSQL versi 338

  • Spark versi 3.0.0-amzn-0

  • TensorFlow versi 2.1.0

  • Zeppelin versi 0.9.0-preview1

  • Zookeeper versi 3.4.14

  • Konektor dan driver: DynamoDB Connector 4.14.0

Fitur baru
  • Tipe instans ARM didukung mulai dari Amazon EMR versi 5.30.0 dan Amazon EMR versi 6.1.0.

  • Tipe instans tujuan umum M6g didukung mulai dengan Amazon EMR versi 6.1.0 dan 5.30.0. Untuk informasi selengkapnya, lihat Tipe instans yang didukung di Panduan Pengelolaan Amazon EMR.

  • Fitur grup penempatan EC2 didukung mulai dengan Amazon EMR versi 5.23.0 sebagai pilihan untuk beberapa klaster simpul utama. Saat ini, hanya tipe simpul utama yang didukung oleh fitur grup penempatan, dan strategi SPREAD diterapkan terhadap simpul utama tersebut. Strategi SPREAD menempatkan sekelompok kecil grup instans di perangkat keras yang mendasari terpisah untuk menjaga dari hilangnya beberapa simpul utama saat terjadi kegagalan perangkat keras. Untuk informasi selengkapnya, lihat Integrasi EMR dengan Grup Penempatan EC2 di Panduan Pengelolaan Amazon EMR.

  • Penskalaan Terkelola – Dengan Amazon EMR versi 6.1.0, Anda dapat mengaktifkan penskalaan terkelola EMR untuk secara otomatis menambah atau mengurangi jumlah instans atau unit di klaster Anda berdasarkan beban kerja. EMR terus-menerus mengevaluasi metrik klaster untuk membuat keputusan penskalaan yang akan mengoptimalkan klaster Anda dalam hal biaya dan kecepatan. Penskalaan Terkelola juga tersedia di Amazon EMR versi 5.30.0 dan setelahnya, kecuali versi 6.0.0. Untuk informasi selengkapnya, lihat Penskalaan Sumber Daya Klaster di Panduan Pengelolaan Amazon EMR.

  • PrestoSQL versi 338 didukung dengan EMR 6.1.0. Untuk informasi selengkapnya, lihat Presto.

    • PrestoSQL didukung pada EMR 6.1.0 dan hanya versi setelahnya, namun tidak pada EMR 6.0.0 atau EMR 5.x.

    • Nama aplikasi, Presto terus-menerus digunakan untuk menginstal PrestoDB pada klaster. Untuk menginstal PrestoSQL pada klaster, gunakan nama aplikasi PrestoSQL.

    • Anda dapat menginstal PrestoDB atau PrestoSQL, tetapi Anda tidak dapat menginstal keduanya pada satu klaster. Jika PrestoDB dan PrestoSQL keduanya ditentukan ketika mencoba untuk membuat sebuah klaster, maka akan terjadi kesalahan validasi dan permintaan pembuatan klaster gagal.

    • PrestoSQL didukung pada klaster single-master dan muti-master. Pada klaster multi-master, metastore Hive eksternal diperlukan untuk menjalankan PrestoSQL atau PrestoDB. Lihat Aplikasi yang didukung di Klaster EMR dengan Beberapa Simpul Utama.

  • Dukungan otentikasi auto ECR pada Apache Hadoop dan Apache Spark dengan Docker: pengguna Spark dapat menggunakan gambar Docker Hub dan Amazon Elastic Container Registry (Amazon ECR) untuk menentukan lingkungan dan dependensi perpustakaan.

    Konfigurasi Docker dan Jalankan Aplikasi Spark dengan Docker Menggunakan Amazon EMR 6.x.

  • EMR mendukung transaksi Apache Hive ACID: Amazon EMR 6.1.0 menambahkan dukungan untuk transaksi Hive ACID sehingga sesuai dengan sifat ACID database. Dengan fitur ini, Anda dapat menjalankanINSERT, UPDATE, DELETE, danMERGE operasi di Hive dikelola tabel dengan data di Amazon Simple Storage Service (Amazon S3). Ini adalah fitur kunci untuk kasus penggunaan seperti menyerap streaming, pernyataan ulang data, update massal menggunakan MERGE, dan mengubah dimensi secara perlahan. Untuk informasi lebih lanjut, termasuk contoh konfigurasi dan kasus penggunaan, lihat Amazon EMR mendukung transaksi Apache Hive ACID.

Perubahan, penyempurnaan, dan masalah yang diselesaikan
  • Ini adalah rilis untuk memperbaiki masalah dengan Penskalaan Amazon EMR saat gagal menskala/menurunkan skala klaster dengan sukses atau menyebabkan kegagalan aplikasi.

  • Memperbaiki masalah saat permintaan penskalaan gagal untuk klaster besar dan sangat dimanfaatkan saat daemon on-cluster Amazon EMR menjalankan aktivitas pemeriksaan kesehatan, seperti mengumpulkan status node YARN dan status node HDFS. Hal ini terjadi karena daemon on-cluster tidak dapat mengkomunikasikan data status kesehatan node ke komponen Amazon EMR internal.

  • Daemon on-cluster EMR yang ditingkatkan untuk melacak status node dengan benar saat alamat IP digunakan kembali untuk meningkatkan keandalan selama operasi penskalaan.

  • PERCIKAN-29683. Memperbaiki masalah di mana kegagalan pekerjaan terjadi selama skala klaster saat Spark mengasumsikan semua node yang tersedia terdaftar deny-listed.

  • BENANG-9011. Memperbaiki masalah di mana kegagalan pekerjaan terjadi karena kondisi balapan di YARN menonaktifkan ketika cluster mencoba untuk meningkatkan atau menurunkan skala.

  • Memperbaiki masalah dengan kegagalan langkah atau pekerjaan selama penskalaan klaster dengan memastikan bahwa status node selalu konsisten antara daemon on-cluster Amazon EMR dan YARN/HDFS.

  • Memperbaiki masalah saat operasi klaster seperti menurunkan skala dan pengiriman langkah gagal untuk klaster Amazon EMR yang diaktifkan dengan otentikasi Kerberos. Ini karena daemon on-cluster Amazon EMR tidak memperbarui tiket Kerberos, yang diperlukan untuk berkomunikasi dengan aman dengan HDFS/YARN yang berjalan pada node master.

  • Rilis Amazon EMR memperbaiki masalah dengan batas “Maksimal file terbuka” pada AL2 yang lebih tua di Amazon EMR. Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru sekarang menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi.

  • Apache Flink tidak didukung pada EMR 6.0.0, tetapi didukung pada EMR 6.1.0 dengan Flink 1.11.0. Ini adalah versi pertama Flink yang secara resmi mendukung Hadoop 3. Lihat Pengumuman Rilis Apache Flink 1.11.0.

  • Ganglia telah dihapus dari bundel paket default EMR 6.1.0.

Masalah diketahui
  • Turunkan batas “Maksimal file terbuka” pada AL2 yang lebih tua [diperbaiki di rilis yang lebih baru]. Rilis Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.1.0, dan emr-6.2.0 didasarkan pada versi lama dari Amazon Linux 2 (AL2), yang memiliki pengaturan ulimit lebih rendah untuk “Maksimal file terbuka” ketika klaster Amazon EMR dibuat dengan AMI default. Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi. Rilis dengan batas file terbuka yang lebih rendah akan menyebabkan munculnya kesalahan “Terlalu banyak file terbuka” saat mengirimkan tugas Spark. Dalam rilis yang terdampak, Amazon EMR default AMI memiliki pengaturan ulimit default 4096 untuk “Maksimal file terbuka,” yang lebih rendah dari batas file 65536 di Amazon Linux 2 AMI terbaru. Pengaturan ulimit yang lebih rendah untuk "Maksimal file terbuka" menyebabkan kegagalan tugas Spark ketika driver dan pelaksana mencoba untuk membuka lebih dari 4096 file. Untuk memperbaiki masalah, Amazon EMR memiliki skrip tindakan bootstrap (BA) yang menyesuaikan pengaturan ulimit saat pembuatan klaster.

    Jika Anda menggunakan versi Amazon EMR lama yang tidak memiliki perbaikan permanen untuk masalah ini, solusi berikut memungkinkan Anda untuk secara eksplisit mengatur ulimit instans-pengendali di jumlah maksimum 65536 file.

    Mengatur secara eksplisit ulimit dari baris perintah
    1. Edit /etc/systemd/system/instance-controller.service untuk menambahkan parameter berikut ke bagian Layanan.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Restart InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Atur ulimit menggunakan tindakan bootstrap (BA)

    Anda juga dapat menggunakan skrip tindakan bootstrap (BA) untuk mengkonfigurasi ulimit instans-pengendali menjadi 65536 file saat pembuatan klaster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • penting

    Amazon EMR 6.1.0 dan 6.2.0 mempunyai masalah performa yang secara kritis dapat mempengaruhi semua operasi insert, upsert, dan delete Hudi. Jika Anda berencana untuk menggunakan Hudi dengan Amazon EMR 6.1.0 atau 6.2.0, maka Anda harus menghubungi dukungan AWS untuk mendapatkan Hudi RPM yang telah di-patch.

  • Jika Anda mengatur konfigurasi pengumpulan sampah kustom dengan spark.driver.extraJavaOptions dan spark.executor.extraJavaOptions, ini akan mengakibatkan gagal peluncuran driver/pelaksana dengan EMR 6.1 karena konfigurasi pengumpulan sampah yang bertentangan. Dengan EMR Rilis 6.1.0, Anda harus menentukan konfigurasi pengumpulan sampah Spark kustom untuk driver dan pelaksana dengan properti spark.driver.defaultJavaOptions dan spark.executor.defaultJavaOptions sebagai gantinya. Baca selengkapnya di Lingkungan Waktu Aktif Apache Spark dan Mengkonfigurasi Pengumpulan Sampah Spark di Amazon EMR 6.1.0.

  • Menggunakan Pig dengan Oozie (dan dalam Hue, karena Hue menggunakan tindakan Oozie untuk menjalankan skrip Pig), akan menghasilkan kesalahan di mana perpustakaan native-lzo tidak dapat dimuat. Pesan kesalahan ini adalah informasi dan tidak memblokir Pig sehingga tidak berjalan.

  • Support Hudi Concurrency: Saat ini Hudi tidak mendukung tulis bersamaan ke tabel Hudi tunggal. Selain itu, Hudi membatalkan setiap perubahan yang dilakukan oleh penulis yang sedang berlangsung sebelum mengizinkan penulis baru untuk memulai. Tulis bersamaan dapat mengganggu mekanisme ini dan memperkenalkan kondisi ras, yang dapat menyebabkan korupsi data. Anda harus memastikan bahwa sebagai bagian dari alur kerja pengolahan data Anda, hanya ada satu penulis Hudi yang beroperasi terhadap tabel Hudi setiap saat. Hudi tidak mendukung beberapa pembaca bersamaan yang beroperasi terhadap tabel Hudi yang sama.

  • Masalah yang diketahui di klaster dengan beberapa simpul utama dan autentikasi Kerberos

    Jika Anda menjalankan klaster dengan beberapa simpul utama dan autentikasi Kerberos di EMR rilis 5.20.0 dan versi setelahnya, Anda mungkin akan mengalami masalah dengan operasi klaster seperti menurunkan skala atau pengiriman langkah, setelah klaster telah berjalan untuk beberapa waktu. Periode waktunya tergantung pada masa validitas tiket Kerberos yang Anda tetapkan. Masalah menurunkan skala akan berdampak pada permintaan menurunkan skala otomatis dan permintaan menurunkan skala eksplisit yang Anda kirimkan. Operasi klaster tambahan juga dapat terkena dampak.

    Pemecahan masalah:

    • SSH sebagai pengguna hadoop bagi simpul utama lead klaster EMR dengan beberapa simpul utama.

    • Jalankan perintah berikut untuk memperbarui tiket Kerberos untuk pengguna hadoop.

      kinit -kt <keytab_file> <principal>

      Biasanya, fail keytab terletak di /etc/hadoop.keytab dan file utama-nya dalam bentuk hadoop/<hostname>@<REALM>.

    catatan

    Pemecahan masalah ini akan efektif untuk jangka waktu selama tiket Kerberos berlaku. Durasi ini adalah 10 jam secara default, tetapi dapat dikonfigurasi dengan pengaturan Kerberos Anda. Anda harus menjalankan kembali perintah di atas setelah tiket Kerberos berakhir.

  • Ada masalah di Amazon EMR 6.1.0 yang mempengaruhi klaster yang menjalankan Presto. Setelah perpanjangan jangka waktu (hari), klaster mungkin membuang kesalahan seperti, “su: gagal untuk mengeksekusi/bin/bash: Sumber daya untuk sementara tidak tersedia” atau “permintaan shell gagal di saluran 0". Masalah ini disebabkan oleh proses internal Amazon EMR (InstanceController) yang menghasilkan terlalu banyak proses ringan (LWP), yang akhirnya menyebabkan pengguna Hadoop melebihi batas nproc mereka. Hal ini mencegah pengguna dari membuka proses tambahan. Solusi untuk masalah ini adalah dengan meng-upgrade ke EMR 6.2.0.

Versi komponen

Komponen yang diinstal oleh Amazon EMR dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Sedangkan komponen lainnya bersifak unik untuk Amazon EMR dan diinstal untuk proses sistem dan fitur. Ini biasanya dimulai dengan emr atau aws. Paket aplikasi big data dalam rilis Amazon EMR terbaru biasanya versi terbaru yang ditemukan di komunitas. Kami menyediakan rilis komunitas di Amazon EMR secepat mungkin.

Beberapa komponen yang ada di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk CommunityVersion-amzn-EmrVersion. EmrVersion dimulai dari 0. Misalnya, jika komponen komunitas sumber terbuka bernama myapp-component dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam versi rilis Amazon EMR yang berbeda, maka versi rilisnya terdaftar sebagai 2.2-amzn-2.

Komponen Versi Deskripsi
aws-sagemaker-spark-sdk1.3.0Amazon SageMaker Spark SDK
emr-ddb4.14.0Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop.
emr-goodies3.1.0Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop.
emr-kinesis3.5.0Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop.
emr-s3-dist-cp2.14.0Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3.
emr-s3-select2.0.0EMR S3Select Connector
emrfs2.42.0Konektor Amazon S3 untuk aplikasi ekosistem Hadoop.
flink-client1.11.0Skrip dan aplikasi klien baris perintah Apache Flink.
ganglia-monitor3.7.2Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia.
ganglia-metadata-collector3.7.2Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia.
ganglia-web3.7.1Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia.
hadoop-clientVersi 3.2.1-amzn-1Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'.
hadoop-hdfs-datanodeVersi 3.2.1-amzn-1Layanan tingkat simpul HDFS untuk menyimpan blok.
hadoop-hdfs-libraryVersi 3.2.1-amzn-1Klien dan perpustakaan baris perintah HDFS
hadoop-hdfs-namenodeVersi 3.2.1-amzn-1Layanan HDFS untuk melacak nama file dan lokasi blok.
hadoop-hdfs-journalnodeVersi 3.2.1-amzn-1Layanan HDFS untuk mengelola jurnal filesystem Hadoop pada klaster HA.
hadoop-httpfs-serverVersi 3.2.1-amzn-1Titik akhir HTTP untuk operasi HDFS.
hadoop-kms-serverVersi 3.2.1-amzn-1Server pengelolaan kunci kriptografi berdasarkan KeyProvider API Hadoop.
hadoop-mapredVersi 3.2.1-amzn-1MapReduce Perpustakaan mesin eksekusi untuk menjalankan MapReduce aplikasi.
hadoop-yarn-nodemanagerVersi 3.2.1-amzn-1Layanan YARN untuk mengelola kontainer pada simpul individu.
hadoop-yarn-resourcemanagerVersi 3.2.1-amzn-1Layanan YARN untuk mengalokasikan dan mengelola sumber daya klaster dan aplikasi terdistribusi.
hadoop-yarn-timeline-serverVersi 3.2.1-amzn-1Layanan untuk mengambil informasi terkini dan historis untuk aplikasi YARN.
hbase-hmaster2.2.5Layanan untuk klaster HBase bertanggung jawab untuk koordinasi Wilayah dan pelaksanaan perintah administratif.
hbase-region-server2.2.5Layanan untuk melayani satu wilayah HBase atau lebih.
hbase-client2.2.5Klien baris perintah HBase.
hbase-rest-server2.2.5Layanan menyediakan titik akhir HTTP penuh REST untuk HBase.
hbase-thrift-server2.2.5Layanan yang menyediakan titik akhir Thrift untuk HBase.
hcatalog-clientVersi 3.1.2-amzn-2Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server.
hcatalog-serverVersi 3.1.2-amzn-2Layanan yang menyediakan HCatalog, lapisan tabel dan pengelolaan penyimpanan untuk aplikasi terdistribusi.
hcatalog-webhcat-serverVersi 3.1.2-amzn-2Titik akhir HTTP yang menyediakan antarmuka REST untuk HCatalog.
hive-clientVersi 3.1.2-amzn-2Klien baris perintah Hive.
hive-hbaseVersi 3.1.2-amzn-2Klien Hive-hbase.
hive-metastore-serverVersi 3.1.2-amzn-2Layanan untuk mengakses metastore Hive, repositori semantik yang menyimpan metadata untuk SQL pada operasi Hadoop.
hive-server2Versi 3.1.2-amzn-2Layanan untuk menerima kueri Hive sebagai permintaan web.
hudi0.5.2-incubating-amzn-2Kerangka kerja pemrosesan tambahan untuk menyalakan alur data pada latensi rendah dan efisiensi tinggi.
hudi-presto0.5.2-incubating-amzn-2Perpustakaan paket untuk menjalankan Presto dengan Hudi.
hudi-prestosql0.5.2-incubating-amzn-2Perpustakaan paket untuk menjalankan PrestoSQL dengan Hudi.
hudi-spark0.5.2-incubating-amzn-2Perpustakaan paket untuk menjalankan Spark dengan Hudi.
hue-server4.7.1Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop
jupyterhub1.1.0Server multi-pengguna untuk notebook Jupyter
livy-server0.7.0-incubatingAntarmuka REST untuk berinteraksi dengan Apache Spark
nginx1.12.1nginx [engine x] adalah server HTTP dan server proksi balik
mxnet1.6.0Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning.
mariadb-server5.5.64+Server basis data MariaDB.
nvidia-cuda9.2.88Driver Nvidia dan kit alat Cuda
oozie-client5.2.0Klien baris perintah Oozie.
oozie-server5.2.0Layanan untuk menerima permintaan alur kerja Oozie.
opencv4.3.0Perpustakaan Visi Komputer Sumber Terbuka.
phoenix-library5.0.0-HBase-2.0Perpustakaan phoenix untuk server dan klien
phoenix-query-server5.0.0-HBase-2.0Sebuah server ringan yang menyediakan akses JDBC serta Protocol Buffers dan akses format JSON ke API Avatica
presto-coordinator0,232Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker.
presto-worker0,232Layanan untuk mengeksekusi potongan kueri.
presto-client0,232Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai.
prestosql-coordinator338Layanan untuk menerima kueri dan mengelola eksekusi kueri antara prestosql-woorker.
prestosql-worker338Layanan untuk mengeksekusi potongan kueri.
prestosql-client338Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai.
pig-client0.17.0Klien baris perintah Pig.
r3.4.3Proyek R untuk Komputasi Statistik
ranger-kms-server2.0.0Sistem Pengelolaan Kunci Ranger Apache
spark-client3.0.0-amzn-0Klien baris perintah Spark.
spark-history-server3.0.0-amzn-0Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark.
spark-on-yarn3.0.0-amzn-0Mesin eksekusi dalam memori untuk YARN.
spark-yarn-slave3.0.0-amzn-0Perpustakaan Apache Spark yang dibutuhkan oleh slave YARN.
sqoop-client1.4.7Klien baris perintah Apache Sqoop.
tensorflow2.1.0TensorFlow Perpustakaan perangkat lunak sumber terbuka untuk komputasi numerik performa tinggi.
tez-on-yarn0.9.2Aplikasi dan perpustakaan tez YARN.
webserver2.4.41+Server HTTP Apache.
zeppelin-server0.9.0-preview1Notebook berbasis web yang memungkinkan analisis data interaktif.
zookeeper-server3.4.14Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup.
zookeeper-client3.4.14ZooKeeper Klien baris perintah.

Klasifikasi konfigurasi

Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering kali bersesuaian dengan file XML konfigurasi untuk aplikasi, seperti hive-site.xml. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.

klasifikasi emr-6.1.0
Klasifikasi Deskripsi

capacity-scheduler

Ubah nilai dalam file capacity-scheduler.xml Hadoop.

container-executor

Ubah nilai dalam file container-executor.cfg Hadoop YARN ini.

container-log4j

Ubah nilai dalam file container-log4j.properties Hadoop YARN.

core-site

Ubah nilai dalam file core-site.xml Hadoop.

emrfs-site

Ubah pengaturan EMRFS.

flink-conf

Ubah pengaturan flink-conf.yaml.

flink-log4j

Ubah pengaturan log4j.properties Flink.

flink-log4j-yarn-session

Ubah pengaturan log4j-yarn-session .properties Flink.

flink-log4j-cli

Ubah pengaturan log4j-cli.properties Flink.

hadoop-env

Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop.

hadoop-log4j

Ubah nilai dalam file log4j.properties Hadoop ini.

hadoop-ssl-server

Ubah konfigurasi server ssl hadoop

hadoop-ssl-client

Ubah konfigurasi klien ssl hadoop

hbase

Pengaturan terkurasi Amazon EMR untuk Apache HBase.

hbase-env

Ubah nilai dalam lingkungan HBase ini.

hbase-log4j

Ubah nilai dalam file hbase-log4j.properties HBase.

hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties HBase.

hbase-policy

Ubah nilai dalam file hbase-policy.xml HBase.

hbase-site

Ubah nilai dalam file hbase-site.xml HBase.

hdfs-encryption-zones

Konfigurasikan zona enkripsi HDFS.

hdfs-env

Ubah nilai dalam lingkungan HDFS.

hdfs-site

Ubah nilai dalam hdfs-site.xml HDFS.

hcatalog-env

Ubah nilai dalam lingkungan HCatalog.

hcatalog-server-jndi

Mengubah nilai dalam jndi.properties HCatalog ini.

hcatalog-server-proto-hive-site

Ubah nilai dalam proto-hive-site .xml.HCatalog.

hcatalog-webhcat-env

Ubah nilai dalam lingkungan HCatalog WebHCAT.

hcatalog-webhcat-log4j2

Ubah nilai dalam log4j2.properties HCatalog WebHCAT.

hcatalog-webhcat-site

Ubah nilai dalam file webhcat-site.xml HCatalog WebHCAT.

hive

Pengaturan dikurasi Amazon EMR untuk Apache Hive.

hive-beeline-log4j2

Ubah nilai dalam file beeline-log4j2.properties Hive.

hive-parquet-logging

Ubah nilai dalam file parquet-logging.properties Hive.

hive-env

Ubah nilai dalam lingkungan Hive.

hive-exec-log4j2

Ubah nilai dalam file hive-exec-log 4j2.properties Hive.

hive-llap-daemon-log4j2

Ubah nilai dalam file llap-daemon-log 4j2.properties Hive.

hive-log4j2

Ubah nilai dalam file hive-log4j2.properties Hive.

hive-site

Ubah nilai dalam file hive-site.xml Hive

hiveserver2-site

Ubah nilai dalam file hiveserver2-site.xml Hive Server2

hue-ini

Ubah nilai dalam file ini Hue

httpfs-env

Ubah nilai di lingkungan HTTPFS.

httpfs-site

Ubah nilai dalam file httpfs-site.xml Hadoop.

hadoop-kms-acls

Ubah nilai dalam file kms-acls.xml Hadoop.

hadoop-kms-env

Ubah nilai dalam lingkungan Hadoop KMS.

hadoop-kms-log4j

Ubah nilai dalam file kms-log4j.properties Hadoop.

hadoop-kms-site

Ubah nilai dalam file kms-site.xml Hadoop.

hudi-env

Ubah nilai di lingkungan Hudi.

jupyter-notebook-conf

Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook.

jupyter-hub-conf

Ubah nilai dalam JupyterHubs file jupyterhub_config.py.

jupyter-s3-conf

Konfigurasikan persistensi Jupyter Notebook S3.

jupyter-sparkmagic-conf

Ubah nilai dalam file config.json Sparkmagic.

livy-conf

Ubah nilai dalam file livy.conf Livy.

livy-env

Ubah nilai di lingkungan Livy.

livy-log4j

Ubah pengaturan Livy log4j.properties.

mapred-env

Ubah nilai di lingkungan MapReduce aplikasi.

mapred-site

Ubah nilai dalam file mapred-site.xml MapReduce aplikasi.

oozie-env

Ubah nilai di lingkungan Oozie.

oozie-log4j

Ubah nilai dalam file oozie-log4j.properties Oozie.

oozie-site

Ubah nilai dalam file oozie-site.xml Oozie.

phoenix-hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix.

phoenix-hbase-site

Ubah nilai dalam file hbase-site.xml Phoenix.

phoenix-log4j

Ubah nilai dalam file log4j.properties Phoenix.

phoenix-metrics

Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix.

pig-env

Ubah nilai di lingkungan Pig.

pig-properties

Ubah nilai dalam file pig.properties Pig.

pig-log4j

Ubah nilai dalam file log4j.properties Pig.

presto-log

Ubah nilai dalam file log.properties Presto.

presto-config

Ubah nilai dalam file config.properties Presto.

presto-password-authenticator

Ubah nilai dalam file password-authenticator.properties Presto.

presto-env

Ubah nilai dalam file presto-env.sh Presto.

presto-node

Ubah nilai dalam file node.properties Presto.

presto-connector-blackhole

Ubah nilai dalam file blackhole.properties Presto.

presto-connector-cassandra

Ubah nilai dalam file cassandra.properties Presto.

presto-connector-hive

Ubah nilai dalam file hive.properties Presto.

presto-connector-jmx

Ubah nilai dalam file jmx.properties Presto.

presto-connector-kafka

Ubah nilai dalam file kafka.properties Presto.

presto-connector-localfile

Ubah nilai dalam file localfile.properties Presto.

presto-connector-memory

Ubah nilai dalam file memory.properties Presto.

presto-connector-mongodb

Ubah nilai dalam file mongodb.properties Presto.

presto-connector-mysql

Ubah nilai dalam file mysql.properties Presto.

presto-connector-postgresql

Ubah nilai dalam file postgresql.properties Presto.

presto-connector-raptor

Ubah nilai dalam file raptor.properties Presto.

presto-connector-redis

Ubah nilai dalam file redis.properties Presto.

presto-connector-redshift

Ubah nilai dalam file redshift.properties Presto.

presto-connector-tpch

Ubah nilai dalam file tpch.properties Presto.

presto-connector-tpcds

Ubah nilai dalam file tpcds.properties Presto.

prestosql-log

Ubah nilai dalam file log.properties Presto.

prestosql-config

Ubah nilai dalam file config.properties Presto.

prestosql-password-authenticator

Ubah nilai dalam file password-authenticator.properties Presto.

prestosql-env

Ubah nilai dalam file presto-env.sh Presto.

prestosql-node

Ubah nilai dalam file node.properties PrestoSQL.

prestosql-connector-blackhole

Ubah nilai dalam file blackhole.properties PrestoSQL.

prestosql-connector-cassandra

Ubah nilai dalam file cassandra.properties PrestoSQL.

prestosql-connector-hive

Ubah nilai dalam file hive.properties PrestoSQL.

prestosql-connector-jmx

Ubah nilai dalam file jmx.properties PrestoSQL.

prestosql-connector-kafka

Ubah nilai dalam file kafka.properties PrestoSQL.

prestosql-connector-localfile

Ubah nilai dalam file localfile.properties PrestoSQL.

prestosql-connector-memory

Ubah nilai dalam file memory.properties PrestoSQL.

prestosql-connector-mongodb

Ubah nilai dalam file mongodb.properties PrestoSQL.

prestosql-connector-mysql

Ubah nilai dalam file mysql.properties PrestoSQL.

prestosql-connector-postgresql

Ubah nilai dalam file postgresql.properties PrestoSQL.

prestosql-connector-raptor

Ubah nilai dalam file raptor.properties PrestoSQL.

prestosql-connector-redis

Ubah nilai dalam file redis.properties PrestoSQL.

prestosql-connector-redshift

Ubah nilai dalam file redshift.properties PrestoSQL.

prestosql-connector-tpch

Ubah nilai dalam file tpch.properties PrestoSQL.

prestosql-connector-tpcds

Ubah nilai dalam file tpcds.properties PrestoSQL.

ranger-kms-dbks-site

Ubah nilai dalam file dbks-site.xml Ranger KMS.

ranger-kms-site

Ubah nilai dalam file ranger-kms-site .xmlRanger KMS.

ranger-kms-env

Ubah nilai di lingkungan Ranger KMS.

ranger-kms-log4j

Ubah nilai dalam file kms-log4j.properties Ranger KMS.

ranger-kms-db-ca

Ubah nilai untuk file CA pada S3 untuk koneksi MySQL SSL dengan Ranger KMS.

spark

Pengaturan terkurasi Amazon EMR untuk Apache Spark.

spark-defaults

Ubah nilai dalam file spark-defaults.conf Spark.

spark-env

Ubah nilai di lingkungan Spark.

spark-hive-site

Ubah nilai dalam file hive-site.xml Spark

spark-log4j

Ubah nilai dalam file log4j.properties Spark.

spark-metrics

Ubah nilai dalam file metrics.properties Spark.

sqoop-env

Ubah nilai dalam lingkungan Sqoop.

sqoop-oraoop-site

Ubah nilai dalam file oraoop-site.xml OraOop Sqoop.

sqoop-site

Ubah nilai dalam file sqoop-site.xml Sqoop.

tez-site

Ubah nilai dalam file tez-site.xml Tez.

yarn-env

Ubah nilai di lingkungan YARN.

yarn-site

Ubah nilai dalam file yarn-site.xml YARN.

zeppelin-env

Ubah nilai di lingkungan Zeppelin.

zookeeper-config

Ubah nilai dalam ZooKeeper file zoo.cfg.

zookeeper-log4j

Ubah nilai dalam ZooKeeper file log4j.properties.