Amazon EMR rilis 6.4.0 - Amazon EMR

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Amazon EMR rilis 6.4.0

6.4.0 versi aplikasi

Aplikasi berikut didukung dalam rilis ini: Flink,, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHubLivy, MXNet, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Trino, Zeppelin, dan ZooKeeper.

Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon EMR ini dan versi aplikasi dalam tiga rilis EMR Amazon sebelumnya (bila berlaku).

Untuk riwayat lengkap versi aplikasi untuk setiap rilis Amazon EMR, lihat topik berikut:

Informasi versi aplikasi
emr-6.4.0 emr-6.3.1 emr-6.3.0 emr-6.2.1
AWS SDK for Java 1.12.311.11.9771.11.9771.11.880
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Skala 2.12.102.12.102.12.102.12.10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.13.11.12.11.12.11.11.2
Ganglia3.7.23.7.23.7.23.7.2
HBase2.4.42.2.62.2.62.2.6-amzn-0
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.8.0-amzn-00.7.0-amzn-00.7.0-amzn-00.6.0-amzn-1
Hue4.9.04.9.04.9.04.8.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.02.1.02.1.02.1.0
JupyterHub1.4.11.2.21.2.21.1.0
Livy0.7.10.7.00.7.00.7.0
MXNet1.8.01.7.01.7.01.7.0
Mahout - - - -
Oozie5.2.15.2.15.2.15.2.0
Phoenix5.1.25.0.05.0.05.0.0
Pig0.17.00.17.00.17.00.17.0
Presto0.254.10.245.10.245.10.238.3
Spark3.1.23.1.13.1.13.0.1
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.4.12.4.12.3.1
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)359350350343
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.5.73.4.143.4.143.4.14

6.4.0 catatan rilis

Catatan rilis berikut mencakup informasi untuk Amazon EMR rilis 6.4.0. Perubahan relatif terhadap 6.3.0.

Tanggal rilis awal: 20 September 2021

Tanggal rilis diperbarui: 21 Maret 2022

Aplikasi-aplikasi yang didukung
  • AWS SDK for Javaversi 1.12.31

  • CloudWatch Wastafel versi 2.2.0

  • DynamoDB Connector versi 4.16.0

  • EMRFS versi 2.47.0

  • Amazon EMR Goodies versi 3.2.0

  • Amazon EMR Kinesis Connector versi 3.5.0

  • Server Rekam EMR Amazon versi 2.1.0

  • Amazon EMR Scripts versi 2.5.0

  • Flink versi 1.13.1

  • Ganglia versi 3.7.2

  • AWSGlue Hive Metastore Client versi 3.3.0

  • Hadoop versi 3.2.1-amzn-4

  • HBase versi 2.4.4-amzn-0

  • HB 1.1.0 ase-operator-tools

  • HCatalog versi 3.1.2-amzn-5

  • Sarang versi 3.1.2-amzn-5

  • Hudi versi 0.8.0-amzn-0

  • Hue versi 4.9.0

  • Java JDK versi Corretto-8.302.08.1 (build 1.8.0_302-b08)

  • JupyterHub versi 1.4.1

  • Livy versi 0.7.1-inkubasi

  • MxNet versi 1.8.0

  • Oozie versi 5.2.1

  • Phoenix versi 5.1.2

  • Pig versi 0.17.0

  • Presto versi 0.254.1-amzn-0

  • Trino versi 359

  • Apache Ranger KMS (enkripsi transparan multi-utama) versi 2.0.0

  • ranger-plugin 2.0.1-amzn-0

  • ranger-s3-plugin 1.2.0

  • SageMaker Spark SDK versi 1.4.1

  • Scala versi 2.12.10 (OpenJDK 64-Bit Server VM, Java 1.8.0_282)

  • Spark versi 3.1.2-amzn-0

  • spark-rapids 0.4.1

  • Sqoop versi 1.4.7

  • TensorFlow versi 2.4.1

  • tez versi 0.9.2

  • Zeppelin versi 0.9.0

  • Zookeeper versi 3.5.7

  • Konektor dan driver: DynamoDB Connector 4.16.0

Fitur baru
  • [Penskalaan terkelola] Pengoptimalan penskalaan terkelola data shuffle percikan - Untuk Amazon EMR versi 5.34.0 dan yang lebih baru, dan EMR versi 6.4.0 dan yang lebih baru, penskalaan terkelola sekarang sadar data acak Spark (data yang didistribusikan ulang Spark di seluruh partisi untuk melakukan operasi tertentu). Untuk informasi selengkapnya tentang operasi shuffle, lihat Menggunakan penskalaan terkelola EMR di Amazon EMR di Panduan Manajemen EMR Amazon dan Panduan Pemrograman Spark.

  • Pada kluster EMR Amazon yang mendukung Apache Ranger, Anda dapat menggunakan Apache Spark SQL untuk menyisipkan data ke dalam atau memperbarui tabel metastore Apache Hive menggunakan,, dan. INSERT INTO INSERT OVERWRITE ALTER TABLE Saat menggunakan ALTER TABLE dengan Spark SQL, lokasi partisi harus menjadi direktori anak dari lokasi tabel. Amazon EMR saat ini tidak mendukung penyisipan data ke dalam partisi di mana lokasi partisi berbeda dari lokasi tabel.

  • PrestosQL telah diubah namanya menjadi Trino.

  • Hive: Eksekusi kueri SELECT sederhana dengan klausa LIMIT dipercepat dengan menghentikan eksekusi kueri segera setelah jumlah catatan yang disebutkan dalam klausa LIMIT diambil. Kueri SELECT sederhana adalah kueri yang tidak memiliki GROUP BY/ORDER by klausa atau kueri yang tidak memiliki tahap peredam. Sebagai contoh, SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>.

Kontrol Konkurensi Hudi
  • Hudi sekarang mendukung Optimistic Concurrency Control (OCC), yang dapat dimanfaatkan dengan operasi tulis seperti UPSERT dan INSERT untuk memungkinkan perubahan dari beberapa penulis ke tabel Hudi yang sama. Ini adalah OCC tingkat file, jadi dua komit (atau penulis) dapat menulis ke tabel yang sama, jika perubahannya tidak bertentangan. Untuk informasi lebih lanjut, lihat kontrol konkurensi Hudi.

  • Cluster EMR Amazon telah menginstal Zookeeper, yang dapat dimanfaatkan sebagai penyedia kunci untuk OCC. Untuk mempermudah penggunaan fitur ini, kluster EMR Amazon memiliki properti berikut yang telah dikonfigurasi sebelumnya:

    hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL> hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port> hoodie.write.lock.zookeeper.base_path=/hudi

    Untuk mengaktifkan OCC, Anda perlu mengonfigurasi properti berikut baik dengan opsi pekerjaan Hudi atau di tingkat cluster menggunakan API konfigurasi EMR Amazon:

    hoodie.write.concurrency.mode=optimistic_concurrency_control hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write) hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)
Pemantauan Hudi: CloudWatch Integrasi Amazon untuk melaporkan Metrik Hudi
  • Amazon EMR mendukung penerbitan Hudi Metrics ke Amazon. CloudWatch Ini diaktifkan dengan mengatur konfigurasi yang diperlukan berikut:

    hoodie.metrics.on=true hoodie.metrics.reporter.type=CLOUDWATCH
  • Berikut ini adalah konfigurasi Hudi opsional yang dapat Anda ubah:

    Pengaturan Deskripsi Nilai

    hoodie.metrics.cloudwatch.report.period.seconds

    Frekuensi (dalam detik) untuk melaporkan metrik ke Amazon CloudWatch

    Nilai default adalah 60-an, yang baik-baik saja untuk resolusi default satu menit yang ditawarkan oleh Amazon CloudWatch

    hoodie.metrics.cloudwatch.metric.prefix

    Awalan yang akan ditambahkan ke setiap nama metrik

    Nilai default kosong (tidak ada awalan)

    hoodie.metrics.cloudwatch.namespace

    CloudWatch Namespace Amazon di mana metrik diterbitkan

    Nilai default adalah Hudi

    hoodie.metrics.cloudwatch. maxDatumsPerPermintaan

    Jumlah maksimum datum yang akan dimasukkan dalam satu permintaan ke Amazon CloudWatch

    Nilai default adalah 20, yang sama dengan CloudWatch default Amazon

Dukungan dan peningkatan konfigurasi Amazon EMR Hudi
  • Pelanggan sekarang dapat memanfaatkan API Konfigurasi EMR dan fitur Konfigurasi Ulang untuk mengonfigurasi konfigurasi Hudi di tingkat cluster. Dukungan konfigurasi berbasis file baru telah diperkenalkan melalui /etc/hudi/conf/hudi-defaults.conf di sepanjang baris aplikasi lain seperti Spark, Hive dll. EMR mengonfigurasi beberapa default untuk meningkatkan pengalaman pengguna:

    hoodie.datasource.hive_sync.jdbcurl dikonfigurasi ke URL server Hive cluster dan tidak perlu lagi ditentukan. Ini sangat berguna saat menjalankan pekerjaan dalam mode cluster Spark, di mana Anda sebelumnya harus menentukan IP master EMR Amazon.

    — Konfigurasi khusus HBase, yang berguna untuk menggunakan indeks HBase dengan Hudi.

    — Konfigurasi khusus penyedia kunci Zookeeper, seperti yang dibahas di bawah kontrol konkurensi, yang membuatnya lebih mudah untuk menggunakan Optimistic Concurrency Concurrency Control (OCC).

  • Perubahan tambahan telah diperkenalkan untuk mengurangi jumlah konfigurasi yang perlu Anda lewati, dan untuk menyimpulkan secara otomatis jika memungkinkan:

    partitionBy Kata kunci dapat digunakan untuk menentukan kolom partisi.

    — Saat mengaktifkan Hive Sync, tidak lagi wajib untuk lulus. HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY Nilai-nilai tersebut dapat disimpulkan dari nama tabel Hudi dan bidang partisi.

    KEYGENERATOR_CLASS_OPT_KEY tidak wajib untuk lulus, dan dapat disimpulkan dari kasus yang lebih sederhana dari SimpleKeyGenerator danComplexKeyGenerator.

Peringatan Hudi
  • Hudi tidak mendukung eksekusi vektor di Hive for Merge on Read (MoR) dan tabel Bootstrap. Misalnya, count(*) gagal dengan tabel realtime Hudi ketika hive.vectorized.execution.enabled disetel ke true. Sebagai solusinya, Anda dapat menonaktifkan pembacaan vektor dengan menyetel ke. hive.vectorized.execution.enabled false

  • Dukungan multi-penulis tidak kompatibel dengan fitur bootstrap Hudi.

  • Flink Streamer dan Flink SQL adalah fitur eksperimental dalam rilis ini. Fitur-fitur ini tidak disarankan untuk digunakan dalam penyebaran produksi.

Perubahan, penyempurnaan, dan masalah yang diselesaikan

Ini adalah rilis untuk memperbaiki masalah dengan Amazon EMR Scaling ketika gagal meningkatkan/menurunkan skala cluster dengan sukses atau menyebabkan kegagalan aplikasi.

  • Sebelumnya, restart manual pengelola sumber daya pada cluster multi-master menyebabkan daemon on-cluster Amazon EMR, seperti Zookeeper, memuat ulang semua node yang sebelumnya dinonaktifkan atau hilang dalam file znode Zookeeper. Hal ini menyebabkan batas default terlampaui dalam situasi tertentu. Amazon EMR sekarang menghapus catatan node yang dinonaktifkan atau hilang lebih dari satu jam dari file Zookeeper dan batas internal telah ditingkatkan.

  • Memperbaiki masalah saat permintaan penskalaan gagal untuk klaster besar yang sangat dimanfaatkan saat daemon on-cluster Amazon EMR menjalankan aktivitas pemeriksaan kesehatan, seperti mengumpulkan status node YARN dan status node HDFS. Ini terjadi karena daemon on-cluster tidak dapat mengkomunikasikan data status kesehatan node ke komponen EMR Amazon internal.

  • Peningkatan daemon EMR on-cluster untuk melacak status node dengan benar saat alamat IP digunakan kembali untuk meningkatkan keandalan selama operasi penskalaan.

  • SPARK-29683. Memperbaiki masalah di mana kegagalan pekerjaan terjadi selama penskalaan klaster karena Spark mengasumsikan semua node yang tersedia tidak terdaftar.

  • BENANG 9011. Memperbaiki masalah di mana kegagalan pekerjaan terjadi karena kondisi balapan dalam penonaktifan YARN saat cluster mencoba menaikkan atau menurunkan skala.

  • Memperbaiki masalah dengan kegagalan langkah atau pekerjaan selama penskalaan klaster dengan memastikan bahwa status node selalu konsisten antara daemon on-cluster EMR Amazon dan YARN/HDFS.

  • Memperbaiki masalah saat operasi klaster seperti pengurangan skala dan pengiriman langkah gagal untuk kluster EMR Amazon yang diaktifkan dengan autentikasi Kerberos. Ini karena daemon on-cluster EMR Amazon tidak memperbarui tiket Kerberos, yang diperlukan untuk berkomunikasi secara aman dengan HDFS/YARN yang berjalan pada node utama.

  • Mengkonfigurasi cluster untuk memperbaiki masalah kinerja Apache YARN Timeline Server versi 1 dan 1.5

    Apache YARN Timeline Server versi 1 dan 1.5 dapat menyebabkan masalah kinerja dengan cluster EMR yang sangat aktif dan besar, terutama denganyarn.resourcemanager.system-metrics-publisher.enabled=true, yang merupakan pengaturan default di Amazon EMR. YARN Timeline Server v2 open source memecahkan masalah kinerja yang terkait dengan skalabilitas YARN Timeline Server.

    Solusi lain untuk masalah ini meliputi:

    • Mengkonfigurasi yarn.resourcemanager. system-metrics-publisher.enabled=false di yarn-site.xml.

    • Mengaktifkan perbaikan untuk masalah ini saat membuat cluster, seperti yang dijelaskan di bawah ini.

    Rilis EMR Amazon berikut berisi perbaikan untuk masalah kinerja Server Timeline YARN ini.

    EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

    Untuk mengaktifkan perbaikan pada salah satu rilis EMR Amazon yang ditentukan di atas, setel properti ini ke true dalam file JSON konfigurasi yang diteruskan menggunakan parameter perintah:. aws emr create-cluster --configurations file://./configurations.json Atau aktifkan perbaikan menggunakan UI konsol konfigurasi ulang.

    Contoh isi file configurations.json:

    [ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
  • WebHDFS dan server HTTPFS dinonaktifkan secara default. Anda dapat mengaktifkan kembali WebHDFS menggunakan konfigurasi Hadoop,. dfs.webhdfs.enabled Server HTTPFS dapat dimulai dengan menggunakan. sudo systemctl start hadoop-httpfs

  • HTTPS sekarang diaktifkan secara default untuk repositori Amazon Linux. Jika Anda menggunakan kebijakan Amazon S3 VPCE untuk membatasi akses ke bucket tertentu, Anda harus menambahkan ARN bucket Amazon Linux baru arn:aws:s3:::amazonlinux-2-repos-$region/* ke kebijakan Anda (ganti $region dengan wilayah tempat titik akhir berada). Untuk informasi lebih lanjut, lihat topik ini di forum AWS diskusi. Pengumuman: Amazon Linux 2 sekarang mendukung kemampuan untuk menggunakan HTTPS saat menghubungkan ke repositori paket.

  • Hive: Kinerja kueri tulis ditingkatkan dengan mengaktifkan penggunaan direktori awal pada HDFS untuk pekerjaan terakhir. Data sementara untuk pekerjaan akhir ditulis ke HDFS alih-alih Amazon S3 dan kinerjanya ditingkatkan karena data dipindahkan dari HDFS ke lokasi tabel akhir (Amazon S3) alih-alih di antara perangkat Amazon S3.

  • Hive: Peningkatan waktu kompilasi kueri hingga 2.5x dengan Glue metastore Partition Pruning.

  • Secara default, ketika UDF bawaan diteruskan oleh Hive ke Server Metastore Hive, hanya sebagian dari UDF bawaan yang diteruskan ke Glue Metastore karena Glue hanya mendukung operator ekspresi terbatas. Jika Anda mengaturhive.glue.partition.pruning.client=true, maka semua pemangkasan partisi terjadi di sisi klien. Jika Anda mengaturhive.glue.partition.pruning.server=true, maka semua pemangkasan partisi terjadi di sisi server.

Masalah yang diketahui
  • Kueri Hue tidak berfungsi di Amazon EMR 6.4.0 karena server Apache Hadoop HTTPFS dinonaktifkan secara default. Untuk menggunakan Hue di Amazon EMR 6.4.0, mulai server HTTPFS secara manual di simpul utama Amazon EMR menggunakansudo systemctl start hadoop-httpfs, atau gunakan langkah EMR Amazon.

  • Fitur Amazon EMR Notebooks yang digunakan dengan peniruan identitas pengguna Livy tidak berfungsi karena HTTPFS dinonaktifkan secara default. Dalam hal ini, notebook EMR tidak dapat terhubung ke cluster yang mengaktifkan peniruan Livy. Solusinya adalah memulai server HTTPFS sebelum menghubungkan notebook EMR ke cluster menggunakan. sudo systemctl start hadoop-httpfs

  • Di Amazon EMR versi 6.4.0, Phoenix tidak mendukung komponen konektor Phoenix.

  • Untuk menggunakan tindakan Spark dengan Apache Oozie, Anda harus menambahkan konfigurasi berikut ke file Oozie Anda. workflow.xml Jika tidak, beberapa perpustakaan penting seperti Hadoop dan EMRFS akan hilang dari classpath dari pelaksana Spark yang diluncurkan Oozie.

    <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  • Saat Anda menggunakan format lokasi partisi Spark dengan Hive untuk membaca data di Amazon S3, dan Anda menjalankan Spark di Amazon EMR rilis 5.30.0 hingga 5.36.0, dan 6.2.0 hingga 6.9.0, Anda mungkin mengalami masalah yang mencegah klaster membaca data dengan benar. Ini dapat terjadi jika partisi Anda memiliki semua karakteristik berikut:

    • Dua atau lebih partisi dipindai dari tabel yang sama.

    • Setidaknya satu jalur direktori partisi adalah awalan dari setidaknya satu jalur direktori partisi lainnya, misalnya, s3://bucket/table/p=a adalah awalan dari. s3://bucket/table/p=a b

    • Karakter pertama yang mengikuti awalan di direktori partisi lain memiliki nilai UTF-8 yang kurang dari / karakter (U+002F). Misalnya, karakter spasi (U+0020) yang terjadi antara a dan b masuk s3://bucket/table/p=a b termasuk dalam kategori ini. Perhatikan bahwa ada 14 karakter non-kontrol lainnya:!"#$%&‘()*+,-. Untuk informasi selengkapnya, lihat tabel pengkodean UTF-8 dan karakter Unicode.

    Sebagai solusi untuk masalah ini, setel spark.sql.sources.fastS3PartitionDiscovery.enabled konfigurasi ke false dalam klasifikasi. spark-defaults

6.4.0 versi komponen

Komponen yang diinstal oleh Amazon EMR dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Sedangkan komponen lainnya bersifak unik untuk Amazon EMR dan diinstal untuk proses sistem dan fitur. Ini biasanya dimulai dengan emr atau aws. Paket aplikasi big data dalam rilis Amazon EMR terbaru biasanya versi terbaru yang ditemukan di komunitas. Kami menyediakan rilis komunitas di Amazon EMR secepat mungkin.

Beberapa komponen yang ada di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk CommunityVersion-amzn-EmrVersion. EmrVersion dimulai dari 0. Misalnya, jika komponen komunitas open source bernama myapp-component dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam rilis EMR Amazon yang berbeda, versi rilisnya terdaftar sebagai. 2.2-amzn-2

Komponen Versi Deskripsi
aws-sagemaker-spark-sdk1.4.1Amazon SageMaker Spark SDK
emr-ddb4.16.0Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop.
emr-goodies3.2.0Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop.
emr-kinesis3.5.0Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop.
emr-notebook-env1.3.0Conda env untuk emr notebook yang mencakup gateway jupyter korporasi
emr-s3-dist-cp2.18.0Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3.
emr-s3-select2.1.0EMR S3Select Connector
emrfs2.47.0Konektor Amazon S3 untuk aplikasi ekosistem Hadoop.
flink-client1.13.1Skrip dan aplikasi klien baris perintah Apache Flink.
flink-jobmanager-config1.13.1Mengelola sumber daya pada node EMR untuk Apache Flink. JobManager
ganglia-monitor3.7.2Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia.
ganglia-metadata-collector3.7.2Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia.
ganglia-web3.7.1Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia.
hadoop-client3.2.1-amzn-4Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'.
hadoop-hdfs-datanode3.2.1-amzn-4Layanan tingkat simpul HDFS untuk menyimpan blok.
hadoop-hdfs-library3.2.1-amzn-4Klien dan perpustakaan baris perintah HDFS
hadoop-hdfs-namenode3.2.1-amzn-4Layanan HDFS untuk melacak nama file dan lokasi blok.
hadoop-hdfs-journalnode3.2.1-amzn-4Layanan HDFS untuk mengelola jurnal filesystem Hadoop pada klaster HA.
hadoop-httpfs-server3.2.1-amzn-4Titik akhir HTTP untuk operasi HDFS.
hadoop-kms-server3.2.1-amzn-4Server manajemen kunci kriptografi berdasarkan API Hadoop. KeyProvider
hadoop-mapred3.2.1-amzn-4MapReduce pustaka mesin eksekusi untuk menjalankan MapReduce aplikasi.
hadoop-yarn-nodemanager3.2.1-amzn-4Layanan YARN untuk mengelola kontainer pada simpul individu.
hadoop-yarn-resourcemanager3.2.1-amzn-4Layanan YARN untuk mengalokasikan dan mengelola sumber daya klaster dan aplikasi terdistribusi.
hadoop-yarn-timeline-server3.2.1-amzn-4Layanan untuk mengambil informasi terkini dan historis untuk aplikasi YARN.
hbase-hmaster2.4.4-amzn-0Layanan untuk klaster HBase bertanggung jawab untuk koordinasi Wilayah dan pelaksanaan perintah administratif.
hbase-region-server2.4.4-amzn-0Layanan untuk melayani satu wilayah HBase atau lebih.
hbase-client2.4.4-amzn-0Klien baris perintah HBase.
hbase-rest-server2.4.4-amzn-0Layanan menyediakan titik akhir HTTP penuh REST untuk HBase.
hbase-thrift-server2.4.4-amzn-0Layanan yang menyediakan titik akhir Thrift untuk HBase.
hcatalog-client3.1.2-amzn-5Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server.
hcatalog-server3.1.2-amzn-5Layanan yang menyediakan HCatalog, lapisan tabel dan pengelolaan penyimpanan untuk aplikasi terdistribusi.
hcatalog-webhcat-server3.1.2-amzn-5Titik akhir HTTP yang menyediakan antarmuka REST untuk HCatalog.
hive-client3.1.2-amzn-5Klien baris perintah Hive.
hive-hbase3.1.2-amzn-5Klien Hive-hbase.
hive-metastore-server3.1.2-amzn-5Layanan untuk mengakses metastore Hive, repositori semantik yang menyimpan metadata untuk SQL pada operasi Hadoop.
hive-server23.1.2-amzn-5Layanan untuk menerima kueri Hive sebagai permintaan web.
hudi0.8.0-amzn-0Kerangka kerja pemrosesan tambahan untuk menyalakan alur data pada latensi rendah dan efisiensi tinggi.
hudi-presto0.8.0-amzn-0Perpustakaan paket untuk menjalankan Presto dengan Hudi.
hudi-trino0.8.0-amzn-0Perpustakaan bundel untuk menjalankan Trino dengan Hudi.
hudi-spark0.8.0-amzn-0Perpustakaan paket untuk menjalankan Spark dengan Hudi.
hue-server4.9.0Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop
jupyterhub1.4.1Server multi-pengguna untuk notebook Jupyter
livy-server0.7.1-inkubasiAntarmuka REST untuk berinteraksi dengan Apache Spark
nginx1.12.1nginx [engine x] adalah server HTTP dan server proksi balik
mxnet1.8.0Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning.
mariadb-server5.5.68+Server basis data MariaDB.
nvidia-cuda10.1.243Driver Nvidia dan kit alat Cuda
oozie-client5.2.1Klien baris perintah Oozie.
oozie-server5.2.1Layanan untuk menerima permintaan alur kerja Oozie.
opencv4.5.0Perpustakaan Visi Komputer Sumber Terbuka.
phoenix-library5.1.2Perpustakaan phoenix untuk server dan klien
phoenix-query-server5.1.2Sebuah server ringan yang menyediakan akses JDBC serta Protocol Buffers dan akses format JSON ke API Avatica
presto-coordinator0.254.1-amzn-0Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker.
presto-worker0.254.1-amzn-0Layanan untuk mengeksekusi potongan kueri.
presto-client0.254.1-amzn-0Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai.
trino-coordinator359Layanan untuk menerima kueri dan mengelola eksekusi kueri di antara trino-workers.
trino-worker359Layanan untuk mengeksekusi potongan kueri.
trino-client359Klien baris perintah Trino yang diinstal pada master siaga cluster HA di mana server Trino tidak dimulai.
pig-client0.17.0Klien baris perintah Pig.
r4.0.2Proyek R untuk Komputasi Statistik
ranger-kms-server2.0.0Sistem Pengelolaan Kunci Ranger Apache
spark-client3.1.2-amzn-0Klien baris perintah Spark.
spark-history-server3.1.2-amzn-0Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark.
spark-on-yarn3.1.2-amzn-0Mesin eksekusi dalam memori untuk YARN.
spark-yarn-slave3.1.2-amzn-0Perpustakaan Apache Spark yang dibutuhkan oleh slave YARN.
spark-rapids0.4.1Plugin Nvidia Spark RAPIDS yang mempercepat Apache Spark dengan GPU.
sqoop-client1.4.7Klien baris perintah Apache Sqoop.
tensorflow2.4.1TensorFlow pustaka perangkat lunak open source untuk perhitungan numerik kinerja tinggi.
tez-on-yarn0.9.2Aplikasi dan perpustakaan tez YARN.
webserver2.4.41+Server HTTP Apache.
zeppelin-server0.9.0Notebook berbasis web yang memungkinkan analisis data interaktif.
zookeeper-server3.5.7Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup.
zookeeper-client3.5.7ZooKeeper klien baris perintah.

6.4.0 klasifikasi konfigurasi

Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering kali bersesuaian dengan file XML konfigurasi untuk aplikasi, seperti hive-site.xml. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.

Tindakan konfigurasi ulang terjadi ketika Anda menentukan konfigurasi untuk grup instans di klaster yang sedang berjalan. Amazon EMR hanya memulai tindakan konfigurasi ulang untuk klasifikasi yang Anda modifikasi. Untuk informasi selengkapnya, lihat Lakukan konfigurasi ulang pada grup instans di klaster yang sedang berjalan.

klasifikasi emr-6.4.0
Klasifikasi Deskripsi Tindakan Konfigurasi Ulang

capacity-scheduler

Ubah nilai dalam file capacity-scheduler.xml Hadoop.

Restarts the ResourceManager service.

container-executor

Ubah nilai dalam file container-executor.cfg Hadoop YARN ini.

Not available.

container-log4j

Ubah nilai dalam file container-log4j.properties Hadoop YARN.

Not available.

core-site

Ubah nilai dalam file core-site.xml Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Ubah pengaturan terkait docker.

Not available.

emrfs-site

Ubah pengaturan EMRFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Ubah pengaturan flink-conf.yaml.

Restarts Flink history server.

flink-log4j

Ubah pengaturan log4j.properties Flink.

Restarts Flink history server.

flink-log4j-session

Ubah pengaturan Flink log4j-session.properties untuk sesi Kubernetes/Yarn.

Restarts Flink history server.

flink-log4j-cli

Ubah pengaturan log4j-cli.properties Flink.

Restarts Flink history server.

hadoop-env

Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Ubah nilai dalam file log4j.properties Hadoop ini.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Ubah konfigurasi server ssl hadoop

Not available.

hadoop-ssl-client

Ubah konfigurasi klien ssl hadoop

Not available.

hbase

Pengaturan terkurasi Amazon EMR untuk Apache HBase.

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Ubah nilai dalam lingkungan HBase ini.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Ubah nilai dalam file hbase-log4j.properties HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Ubah nilai dalam file hbase-policy.xml HBase.

Not available.

hbase-site

Ubah nilai dalam file hbase-site.xml HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Konfigurasikan zona enkripsi HDFS.

This classification should not be reconfigured.

hdfs-env

Ubah nilai dalam lingkungan HDFS.

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

Ubah nilai dalam hdfs-site.xml HDFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Ubah nilai dalam lingkungan HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Mengubah nilai dalam jndi.properties HCatalog ini.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Ubah nilai proto-hive-site di.xml's HCatalog.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Ubah nilai dalam lingkungan HCatalog WebHCAT.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

Ubah nilai dalam log4j2.properties HCatalog WebHCAT.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

Ubah nilai dalam file webhcat-site.xml HCatalog WebHCAT.

Restarts Hive WebHCat server.

hive

Pengaturan dikurasi Amazon EMR untuk Apache Hive.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Ubah nilai dalam file beeline-log4j2.properties Hive.

Not available.

hive-parquet-logging

Ubah nilai dalam file parquet-logging.properties Hive.

Not available.

hive-env

Ubah nilai dalam lingkungan Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Ubah nilai dalam file hive-exec-log 4j2.properties Hive.

Not available.

hive-llap-daemon-log4j2

Ubah nilai dalam file llap-daemon-log 4j2.properties Hive.

Not available.

hive-log4j2

Ubah nilai dalam file hive-log4j2.properties Hive.

Not available.

hive-site

Ubah nilai dalam file hive-site.xml Hive

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Ubah nilai dalam file hiveserver2-site.xml Hive Server2

Not available.

hue-ini

Ubah nilai dalam file ini Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Ubah nilai di lingkungan HTTPFS.

Restarts Hadoop Httpfs service.

httpfs-site

Ubah nilai dalam file httpfs-site.xml Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Ubah nilai dalam file kms-acls.xml Hadoop.

Not available.

hadoop-kms-env

Ubah nilai dalam lingkungan Hadoop KMS.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Ubah nilai dalam file kms-log4j.properties Hadoop.

Not available.

hadoop-kms-site

Ubah nilai dalam file kms-site.xml Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Ubah nilai di lingkungan Hudi.

Not available.

hudi-defaults

Ubah nilai dalam file hudi-defaults.conf Hudi.

Not available.

jupyter-notebook-conf

Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook.

Not available.

jupyter-hub-conf

Ubah nilai dalam JupyterHubs file jupyterhub_config.py.

Not available.

jupyter-s3-conf

Konfigurasikan persistensi Jupyter Notebook S3.

Not available.

jupyter-sparkmagic-conf

Ubah nilai dalam file config.json Sparkmagic.

Not available.

livy-conf

Ubah nilai dalam file livy.conf Livy.

Restarts Livy Server.

livy-env

Ubah nilai di lingkungan Livy.

Restarts Livy Server.

livy-log4j

Ubah pengaturan Livy log4j.properties.

Restarts Livy Server.

mapred-env

Ubah nilai di lingkungan MapReduce aplikasi.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Ubah nilai dalam file mapred-site.xml MapReduce aplikasi.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Ubah nilai di lingkungan Oozie.

Restarts Oozie.

oozie-log4j

Ubah nilai dalam file oozie-log4j.properties Oozie.

Restarts Oozie.

oozie-site

Ubah nilai dalam file oozie-site.xml Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix.

Not available.

phoenix-hbase-site

Ubah nilai dalam file hbase-site.xml Phoenix.

Not available.

phoenix-log4j

Ubah nilai dalam file log4j.properties Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix.

Not available.

pig-env

Ubah nilai di lingkungan Pig.

Not available.

pig-properties

Ubah nilai dalam file pig.properties Pig.

Restarts Oozie.

pig-log4j

Ubah nilai dalam file log4j.properties Pig.

Not available.

presto-log

Ubah nilai dalam file log.properties Presto.

Restarts Presto-Server (for PrestoDB)

presto-config

Ubah nilai dalam file config.properties Presto.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Ubah nilai dalam file password-authenticator.properties Presto.

Not available.

presto-env

Ubah nilai dalam file presto-env.sh Presto.

Restarts Presto-Server (for PrestoDB)

presto-node

Ubah nilai dalam file node.properties Presto.

Not available.

presto-connector-blackhole

Ubah nilai dalam file blackhole.properties Presto.

Not available.

presto-connector-cassandra

Ubah nilai dalam file cassandra.properties Presto.

Not available.

presto-connector-hive

Ubah nilai dalam file hive.properties Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Ubah nilai dalam file jmx.properties Presto.

Not available.

presto-connector-kafka

Ubah nilai dalam file kafka.properties Presto.

Not available.

presto-connector-localfile

Ubah nilai dalam file localfile.properties Presto.

Not available.

presto-connector-memory

Ubah nilai dalam file memory.properties Presto.

Not available.

presto-connector-mongodb

Ubah nilai dalam file mongodb.properties Presto.

Not available.

presto-connector-mysql

Ubah nilai dalam file mysql.properties Presto.

Not available.

presto-connector-postgresql

Ubah nilai dalam file postgresql.properties Presto.

Not available.

presto-connector-raptor

Ubah nilai dalam file raptor.properties Presto.

Not available.

presto-connector-redis

Ubah nilai dalam file redis.properties Presto.

Not available.

presto-connector-redshift

Ubah nilai dalam file redshift.properties Presto.

Not available.

presto-connector-tpch

Ubah nilai dalam file tpch.properties Presto.

Not available.

presto-connector-tpcds

Ubah nilai dalam file tpcds.properties Presto.

Not available.

trino-log

Ubah nilai dalam file log.properties Trino.

Restarts Trino-Server (for Trino)

trino-config

Ubah nilai dalam file config.properties Trino.

Restarts Trino-Server (for Trino)

trino-password-authenticator

Ubah nilai dalam file password-authenticator.properties Trino.

Restarts Trino-Server (for Trino)

trino-env

Ubah nilai dalam file trino-env.sh Trino.

Restarts Trino-Server (for Trino)

trino-node

Ubah nilai dalam file node.properties Trino.

Not available.

trino-connector-blackhole

Ubah nilai dalam file blackhole.properties Trino.

Not available.

trino-connector-cassandra

Ubah nilai dalam file cassandra.properties Trino.

Not available.

trino-connector-hive

Ubah nilai dalam file hive.properties Trino.

Restarts Trino-Server (for Trino)

trino-connector-jmx

Ubah nilai dalam file jmx.properties Trino.

Not available.

trino-connector-kafka

Ubah nilai dalam file kafka.properties Trino.

Not available.

trino-connector-localfile

Ubah nilai dalam file localfile.properties Trino.

Not available.

trino-connector-memory

Ubah nilai dalam file memory.properties Trino.

Not available.

trino-connector-mongodb

Ubah nilai dalam file mongodb.properties Trino.

Not available.

trino-connector-mysql

Ubah nilai dalam file mysql.properties Trino.

Not available.

trino-connector-postgresql

Ubah nilai dalam file postgresql.properties Trino.

Not available.

trino-connector-raptor

Ubah nilai dalam file raptor.properties Trino.

Not available.

trino-connector-redis

Ubah nilai dalam file redis.properties Trino.

Not available.

trino-connector-redshift

Ubah nilai dalam file redshift.properties Trino.

Not available.

trino-connector-tpch

Ubah nilai dalam file tpch.properties Trino.

Not available.

trino-connector-tpcds

Ubah nilai dalam file tpcds.properties Trino.

Not available.

ranger-kms-dbks-site

Ubah nilai dalam file dbks-site.xml Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-site

Ubah nilai dalam ranger-kms-site file.xml. dari Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-env

Ubah nilai di lingkungan Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-log4j

Ubah nilai dalam file kms-log4j.properties Ranger KMS.

Not available.

ranger-kms-db-ca

Ubah nilai untuk file CA pada S3 untuk koneksi MySQL SSL dengan Ranger KMS.

Not available.

spark

Pengaturan terkurasi Amazon EMR untuk Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Ubah nilai dalam file spark-defaults.conf Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Ubah nilai di lingkungan Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Ubah nilai dalam file hive-site.xml Spark

Not available.

spark-log4j

Ubah nilai dalam file log4j.properties Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Ubah nilai dalam file metrics.properties Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Ubah nilai dalam lingkungan Sqoop.

Not available.

sqoop-oraoop-site

Ubah nilai dalam file oraoop-site.xml Sqoop OraOop ini.

Not available.

sqoop-site

Ubah nilai dalam file sqoop-site.xml Sqoop.

Not available.

tez-site

Ubah nilai dalam file tez-site.xml Tez.

Restart Oozie and HiveServer2.

yarn-env

Ubah nilai di lingkungan YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Ubah nilai dalam file yarn-site.xml YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Ubah nilai di lingkungan Zeppelin.

Restarts Zeppelin.

zeppelin-site

Ubah pengaturan konfigurasi di zeppelin-site.xml.

Restarts Zeppelin.

zookeeper-config

Ubah nilai dalam ZooKeeper file zoo.cfg.

Restarts Zookeeper server.

zookeeper-log4j

Ubah nilai dalam file ZooKeeper log4j.properties.

Restarts Zookeeper server.