Amazon EMR Rilis 6.3.0 - Amazon EMR

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Amazon EMR Rilis 6.3.0

versi aplikasi 6.3.0

Aplikasi berikut didukung dalam rilis ini: Flink,, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHubLivy, MXNet, Oozie, Phoenix, Pig, Presto, PrestoSQL, Spark, Sqoop, TensorFlow, Tez, Zeppelin, dan ZooKeeper.

Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon EMR ini dan versi aplikasi dalam tiga rilis EMR Amazon sebelumnya (bila berlaku).

Untuk riwayat lengkap versi aplikasi untuk setiap rilis Amazon EMR, lihat topik berikut:

Informasi versi aplikasi
emr-6.3.0 emr-6.2.1 emr-6.2.0 emr-6.1.1
AWS SDK for Java 1.11.9771.11.8801.11.8801.11.828
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Skala 2.12.102.12.102.12.102.12.10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.12.11.11.21.11.21.11.0
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.62.2.6-amzn-02.2.6-amzn-02.2.5
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.7.0-amzn-00.6.0-amzn-10.6.0-amzn-10.5.2-incubating-amzn-2
Hue4.9.04.8.04.8.04.7.1
Iceberg - - - -
JupyterEnterpriseGateway2.1.02.1.02.1.0 -
JupyterHub1.2.21.1.01.1.01.1.0
Livy0.7.00.7.00.7.00.7.0
MXNet1.7.01.7.01.7.01.6.0
Mahout - - - -
Oozie5.2.15.2.05.2.05.2.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.00.17.00.17.0
Presto0.245.10.238.30.238.30,232
Spark3.1.13.0.13.0.13.0.0
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.3.12.3.12.1.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)350343343338
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

catatan rilis 6.3.0

Catatan rilis berikut mencakup informasi untuk Amazon EMR rilis 6.3.0. Perubahan bersifat relatif terhadap 6.2.0.

Tanggal rilis awal: 12 Mei 2021

Terakhir dimutakhirkan tanggal: Agustus 9, 2021

Aplikasi-aplikasi yang didukung
  • AWS SDK for Java versi 1.11.977

  • CloudWatch Wastafel versi 2.1.0

  • DynamoDB Connector versi 4.16.0

  • EMRFS versi 2.46.0

  • Amazon EMR Goodies versi 3.2.0

  • Amazon EMR Kinesis Connector versi 3.5.0

  • Amazon EMR Record Server versi 2.0.0

  • Amazon EMR Scripts versi 2.5.0

  • Flink versi 1.12.1

  • Ganglia versi 3.7.2

  • AWS Glue Hive Metastore Client versi 3.2.0

  • Hadoop versi 3.2.1-amzn-3

  • HBase versi 2.2.6-amzn-1

  • HB 1.0.0 ase-operator-tools

  • HCatalog versi 3.1.2-amzn-0

  • Hive 3.1.2-amzn-4

  • Hudi versi 0.7.0-amzn-0

  • Hue versi 4.9.0

  • Java JDK versi Corretto-8.282.08.1 (build 1.8.0_282-b08)

  • JupyterHub versi 1.2.0

  • Livy versi 0.7.0-incubating

  • MXNet versi 1.7.0

  • Oozie versi 5.2.1

  • Phoenix versi 5.0.0

  • Pig versi 0.17.0

  • Presto versi 0.245.1-amzn-0

  • PrestoSQL versi 350

  • Apache Ranger KMS (enkripsi transparan multi-utama) versi 2.0.0

  • ranger-plugin 2.0.1-amzn-0

  • ranger-s3-plugin 1.1.0

  • SageMaker Spark SDK versi 1.4.1

  • Scala versi 2.12.10 (OpenJDK 64-Bit Server VM, Java 1.8.0_282)

  • Spark 3.1.1-amzn-0

  • spark-rapids 0.4.1

  • Sqoop versi 1.4.7

  • TensorFlow versi 2.4.1

  • tez versi 0.9.2

  • Zeppelin versi 0.9.0

  • Zookeeper versi 3.4.14

  • Konektor dan driver: DynamoDB Connector 4.16.0

Fitur baru
  • Amazon EMR mendukung Poin Akses Amazon S3, fitur Amazon S3 yang memungkinkan Anda mengelola akses untuk danau data bersama dengan mudah. Dengan menggunakan alias Titik Akses Amazon S3, Anda dapat menyederhanakan akses data dalam skala besar di Amazon EMR. Anda dapat menggunakan Titik Akses Amazon S3 dengan semua versi Amazon EMR tanpa biaya tambahan di semua wilayah di mana AWS Amazon EMR tersedia. Untuk mempelajari selengkapnya tentang Alias Titik Akses Amazon S3 dan Titik Akses, lihat Menggunakan alias gaya ember untuk titik akses Anda di Panduan Pengguna Amazon S3.

  • Parameter baru DescribeReleaseLabel dan ListReleaseLabel API memberikan detail label rilis Amazon EMR. Anda dapat membuat daftar rilis yang tersedia secara terprogram di wilayah tempat permintaan API dijalankan, dan mencantumkan aplikasi yang tersedia untuk label rilis EMR Amazon tertentu. Parameter label rilis juga mencantumkan rilis EMR Amazon yang mendukung aplikasi tertentu, seperti Spark. Informasi ini dapat digunakan untuk meluncurkan kluster EMR Amazon secara terprogram. Misalnya, Anda dapat meluncurkan cluster menggunakan versi rilis terbaru dari ListReleaseLabel hasil. Untuk informasi selengkapnya, lihat DescribeReleaseLabeldan ListReleaseLabelsdi Referensi API EMR Amazon.

  • Dengan Amazon EMR 6.3.0, Anda dapat meluncurkan sebuah klaster yang asli terintegrasi dengan Apache Ranger. Apache Ranger adalah kerangka kerja sumber terbuka untuk mengaktifkan, memantau, dan mengelola keamanan data komprehensif di seluruh platform Hadoop. Untuk informasi selengkapnya, lihat Apache Ranger. Dengan integrasi asli, Anda dapat membawa Apache Ranger Anda sendiri untuk memberlakukan kendali akses data halus di Amazon EMR. Lihat Mengintegrasikan Amazon EMR dengan Apache Ranger dalam Panduan Pengelolaan Amazon EMR.

  • Kebijakan terkelola yang tercakup: Untuk menyelaraskan dengan praktik terbaik AWS, Amazon EMR telah memperkenalkan kebijakan terkelola tercakup default EMR v2 sebagai pengganti kebijakan yang tidak lagi digunakan. Lihat Kebijakan Terkelola Amazon EMR.

  • Status dukungan Instance Metadata Service (IMDS) V2: Untuk Amazon EMR 6.2 atau yang lebih baru, komponen Amazon EMR menggunakan IMDSv2 untuk semua panggilan IMDS. Untuk panggilan IMDS dalam kode aplikasi Anda, Anda dapat menggunakan IMDSv1 dan IMDSv2, atau mengkonfigurasi IMDS untuk hanya menggunakan IMDSv2 untuk keamanan tambahan. Jika Anda menonaktifkan IMDSv1 di Amazon EMR rilis 6.x sebelumnya, maka hal itu akan menyebabkan kegagalan memulai klaster.

Perubahan, penyempurnaan, dan masalah yang diselesaikan
  • Ini adalah rilis untuk memperbaiki masalah dengan Amazon EMR Scaling ketika gagal meningkatkan/menurunkan skala cluster dengan sukses atau menyebabkan kegagalan aplikasi.

  • Memperbaiki masalah saat permintaan penskalaan gagal untuk klaster besar yang sangat dimanfaatkan saat daemon on-cluster Amazon EMR menjalankan aktivitas pemeriksaan kesehatan, seperti mengumpulkan status node YARN dan status node HDFS. Ini terjadi karena daemon on-cluster tidak dapat mengkomunikasikan data status kesehatan node ke komponen EMR Amazon internal.

  • Peningkatan daemon EMR on-cluster untuk melacak status node dengan benar saat alamat IP digunakan kembali untuk meningkatkan keandalan selama operasi penskalaan.

  • SPARK-29683. Memperbaiki masalah di mana kegagalan pekerjaan terjadi selama penskalaan klaster karena Spark mengasumsikan semua node yang tersedia tidak terdaftar.

  • BENANG 9011. Memperbaiki masalah di mana kegagalan pekerjaan terjadi karena kondisi balapan dalam penonaktifan YARN saat cluster mencoba menaikkan atau menurunkan skala.

  • Memperbaiki masalah dengan kegagalan langkah atau pekerjaan selama penskalaan klaster dengan memastikan bahwa status node selalu konsisten antara daemon on-cluster EMR Amazon dan YARN/HDFS.

  • Memperbaiki masalah saat operasi klaster seperti pengurangan skala dan pengiriman langkah gagal untuk kluster EMR Amazon yang diaktifkan dengan autentikasi Kerberos. Ini karena daemon on-cluster EMR Amazon tidak memperbarui tiket Kerberos, yang diperlukan untuk berkomunikasi secara aman dengan HDFS/YARN yang berjalan pada node utama.

  • Rilis Amazon EMR yang lebih baru memperbaiki masalah dengan batas “Max open files” yang lebih rendah pada AL2 yang lebih lama di Amazon EMR. Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru sekarang menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi.

  • Spark SQL UI menjelaskan mode default diubah dari extended ke formatted di Spark 3.1. Amazon EMR mengembalikannya extended untuk memasukkan informasi rencana logis di Spark SQL UI. Ini dapat dikembalikan dengan pengaturan spark.sql.ui.explainMode keformatted.

  • Komit berikut di-backport dari cabang master Spark.

    - [SPARK-34752] [BUILD] Bump Jetty ke 9.4.37 untuk alamat CVE-2020-27223.

    - [SPARK-34534] Perbaiki pesanan BlocKids saat digunakan untuk mengambil blok. FetchShuffleBlocks

    - [SPARK-34681] [SQL] Perbaiki bug untuk gabungan hash acak luar penuh saat membangun sisi kiri dengan kondisi yang tidak sama.

    - [SPARK-34497] [SQL] Perbaiki penyedia koneksi JDBC bawaan untuk memulihkan perubahan konteks keamanan JVM.

  • Untuk meningkatkan interoperabilitas dengan plugin Nvidia Spark RAPIDS, Menambahkan solusi untuk mengatasi masalah yang mencegah pemangkasan partisi dinamis dipicu saat menggunakan Nvidia Spark RAPIDS dengan eksekusi kueri adaptif dinonaktifkan, lihat RAPIDS issue #1378 dan RAPIDS issue # #1386. Untuk detail konfigurasi baruspark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse, lihat RAPIDS issue # #1386.

  • File algoritme default output committer telah berubah dari algoritme v2 untuk algoritme v1 di Spark 3.1 sumber terbuka. Untuk informasi lebih lanjut, lihat EMR Amazon ini mengoptimalkan kinerja Spark - pemangkasan partisi dinamis.

  • Amazon EMR mengembalikan ke algoritme v2, default yang digunakan di Amazon EMR rilis 6.x sebelumnya, untuk mencegah penurunan performa. Untuk memulihkan perilaku sumber terbuka Spark 3.1, atur spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version ke 1. Spark sumber terbuka membuat perubahan ini karena melakukan tugas dalam file algoritme output committer v2 tidak bersifat atom, yang dapat menyebabkan masalah kebenaran data output dalam beberapa kasus. Namun, melakukan tugas dalam algoritme v1 juga tidak bersifat atom. Dalam beberapa skenario melakukan tugas termasuk penghapusan yang dilakukan sebelum mengubah nama. Hal ini dapat mengakibatkan terjadinya masalah kebenaran data diam.

  • Memperbaiki masalah Penskalaan Terkelola dalam rilis EMR Amazon sebelumnya dan melakukan peningkatan sehingga tingkat kegagalan aplikasi berkurang secara signifikan.

  • Menginstal AWS Java SDK Bundle pada setiap cluster baru. Ini adalah toples tunggal yang berisi semua SDK layanan dan dependensinya, bukan stoples komponen individual. Untuk informasi selengkapnya, lihat Java SDK Bundled Dependency.

Masalah yang diketahui
  • Untuk Amazon EMR 6.3.0 dan 6.2.0 kluster subnet pribadi, Anda tidak dapat mengakses UI web Ganglia. Anda akan mendapatkan pesan kesalahan "akses ditolak (403)". UI web lainnya, seperti Spark, Hue, Zeppelin JupyterHub, Livy, dan Tez bekerja secara normal. Akses UI web Ganglia pada klaster subnet publik juga bekerja secara normal. Untuk mengatasi masalah ini, mulai ulang layanan httpd pada node utama dengansudo systemctl restart httpd. Masalah ini diperbaiki di Amazon EMR 6.4.0.

  • Saat Katalog Data Glue AWS diaktifkan, menggunakan Spark untuk mengakses Glue DB AWS dengan URI lokasi string nol mungkin gagal. Hal ini terjadi pada Amazon EMR rilis sebelumnya, tapi SPARK-31709 (https://issues.apache.org/jira/browse/SPARK-31709) membuatnya terjadi pada lebih banyak kasus. Misalnya, saat membuat tabel dalam Glue DB AWS default yang URI lokasinya adalah string nol, spark.sql("CREATE TABLE mytest (key string) location '/table_path';") akan gagal dengan pesan, "Tidak dapat membuat Path dari string kosong." Untuk mengatasi hal ini, tetapkan URI lokasi secara manual basis data Glue AWS Anda, kemudian buatlah tabel dalam basis data ini menggunakan Spark.

  • Di Amazon EMR 6.3.0, PrestoSQL telah naik dari versi 343 ke versi 350. Ada dua keamanan terkait perubahan dari sumber terbuka yang berhubungan dengan perubahan versi ini. Kendali akses katalog berbasis file diubah dari deny ke allow ketika tabel, skema, atau aturan properti sesi tidak ditentukan. Juga, kendali akses sistem berbasis file diubah untuk mendukung file tanpa katalog aturan yang ditentukan. Dalam hal ini, semua akses ke katalog diizinkan.

    Untuk informasi selengkapnya, lihat Rilis 344 (9 Oktober 2020).

  • Perhatikan bahwa direktori pengguna Hadoop (/home/hadoop) dapat dibaca oleh semua orang. Ini memiliki izin direktori Unix 755 (drwxr-xr-x) untuk memungkinkan akses baca oleh kerangka kerja seperti Hive. Anda dapat menempatkan file di /home/hadoop dan subdirektorinya, tetapi perhatikan izin pada direktori tersebut untuk melindungi informasi sensitif.

  • Turunkan batas “Max open files” pada AL2 yang lebih lama [diperbaiki dalam rilis yang lebih baru]. Rilis Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, dan emr-6.2.0 didasarkan pada versi lama dari Amazon Linux 2 (AL2), yang memiliki pengaturan ulimit yang lebih rendah untuk “File terbuka maksimum” ketika kluster Amazon EMR dibuat dengan AMI default. Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi. Rilis dengan batas file terbuka yang lebih rendah menyebabkan kesalahan “Terlalu banyak file terbuka” saat mengirimkan pekerjaan Spark. Dalam rilis yang terkena dampak, AMI default Amazon EMR memiliki pengaturan ulimit default 4096 untuk “File terbuka maksimum,” yang lebih rendah dari batas file 65536 di AMI Amazon Linux 2 terbaruAmazon. Pengaturan ulimit yang lebih rendah untuk "Maksimal file terbuka" menyebabkan kegagalan tugas Spark ketika driver dan pelaksana mencoba untuk membuka lebih dari 4096 file. Untuk memperbaiki masalah, Amazon EMR memiliki skrip tindakan bootstrap (BA) yang menyesuaikan pengaturan ulimit saat pembuatan klaster.

    Jika Anda menggunakan versi EMR Amazon yang lebih lama yang tidak memiliki perbaikan permanen untuk masalah ini, solusi berikut memungkinkan Anda untuk secara eksplisit mengatur ulimit pengontrol instans ke maksimum 65536 file.

    Mengatur secara eksplisit ulimit dari baris perintah
    1. Edit /etc/systemd/system/instance-controller.service untuk menambahkan parameter berikut ke bagian Layanan.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Mulai ulang InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Tetapkan ulimit menggunakan tindakan bootstrap (BA)

    Anda juga dapat menggunakan skrip tindakan bootstrap (BA) untuk mengkonfigurasi ulimit instans-pengendali menjadi 65536 file saat pembuatan klaster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • penting

    Cluster EMR yang menjalankan Amazon Linux atau Amazon Linux 2 Amazon Machine Images (AMI) menggunakan perilaku default Amazon Linux, dan tidak secara otomatis mengunduh dan menginstal pembaruan kernel penting dan kritis yang memerlukan reboot. Ini adalah perilaku yang sama dengan instans Amazon EC2 lainnya yang menjalankan AMI Amazon Linux default. Jika pembaruan perangkat lunak Amazon Linux baru yang memerlukan reboot (seperti pembaruan kernel, NVIDIA, dan CUDA) tersedia setelah rilis EMR Amazon tersedia, instance cluster EMR yang menjalankan AMI default tidak secara otomatis mengunduh dan menginstal pembaruan tersebut. Untuk mendapatkan pembaruan kernel, Anda dapat menyesuaikan Amazon EMR AMI menjadi gunakan Amazon Linux AMI terbaru.

  • Untuk menggunakan tindakan Spark dengan Apache Oozie, Anda harus menambahkan konfigurasi berikut ke file Oozie Anda. workflow.xml Jika tidak, beberapa perpustakaan penting seperti Hadoop dan EMRFS akan hilang dari classpath dari pelaksana Spark yang diluncurkan Oozie.

    <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  • Saat Anda menggunakan format lokasi partisi Spark dengan Hive untuk membaca data di Amazon S3, dan Anda menjalankan Spark di Amazon EMR rilis 5.30.0 hingga 5.36.0, dan 6.2.0 hingga 6.9.0, Anda mungkin mengalami masalah yang mencegah klaster membaca data dengan benar. Ini dapat terjadi jika partisi Anda memiliki semua karakteristik berikut:

    • Dua atau lebih partisi dipindai dari tabel yang sama.

    • Setidaknya satu jalur direktori partisi adalah awalan dari setidaknya satu jalur direktori partisi lainnya, misalnya, s3://bucket/table/p=a adalah awalan dari. s3://bucket/table/p=a b

    • Karakter pertama yang mengikuti awalan di direktori partisi lain memiliki nilai UTF-8 yang kurang dari / karakter (U+002F). Misalnya, karakter spasi (U+0020) yang terjadi antara a dan b masuk s3://bucket/table/p=a b termasuk dalam kategori ini. Perhatikan bahwa ada 14 karakter non-kontrol lainnya:!"#$%&‘()*+,-. Untuk informasi selengkapnya, lihat tabel pengkodean UTF-8 dan karakter Unicode.

    Sebagai solusi untuk masalah ini, setel spark.sql.sources.fastS3PartitionDiscovery.enabled konfigurasi ke false dalam klasifikasi. spark-defaults

versi komponen 6.3.0

Komponen yang diinstal oleh Amazon EMR dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Sedangkan komponen lainnya bersifak unik untuk Amazon EMR dan diinstal untuk proses sistem dan fitur. Ini biasanya dimulai dengan emr atau aws. Paket aplikasi big data dalam rilis Amazon EMR terbaru biasanya versi terbaru yang ditemukan di komunitas. Kami menyediakan rilis komunitas di Amazon EMR secepat mungkin.

Beberapa komponen yang ada di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk CommunityVersion-amzn-EmrVersion. EmrVersion dimulai dari 0. Misalnya, jika komponen komunitas open source bernama myapp-component dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam rilis EMR Amazon yang berbeda, versi rilisnya terdaftar sebagai. 2.2-amzn-2

Komponen Versi Deskripsi
aws-sagemaker-spark-sdk1.4.1Amazon SageMaker Spark SDK
emr-ddb4.16.0Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop.
emr-goodies3.2.0Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop.
emr-kinesis3.5.0Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop.
emr-notebook-env1.2.0Conda env untuk emr notebook yang mencakup gateway jupyter korporasi
emr-s3-dist-cp2.18.0Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3.
emr-s3-select2.1.0EMR S3Select Connector
emrfs2.46.0Konektor Amazon S3 untuk aplikasi ekosistem Hadoop.
flink-client1.12.1Skrip dan aplikasi klien baris perintah Apache Flink.
flink-jobmanager-config1.12.1Mengelola sumber daya pada node EMR untuk Apache Flink. JobManager
ganglia-monitor3.7.2Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia.
ganglia-metadata-collector3.7.2Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia.
ganglia-web3.7.1Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia.
hadoop-client3.2.1-amzn-3Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'.
hadoop-hdfs-datanode3.2.1-amzn-3Layanan tingkat simpul HDFS untuk menyimpan blok.
hadoop-hdfs-library3.2.1-amzn-3Klien dan perpustakaan baris perintah HDFS
hadoop-hdfs-namenode3.2.1-amzn-3Layanan HDFS untuk melacak nama file dan lokasi blok.
hadoop-hdfs-journalnode3.2.1-amzn-3Layanan HDFS untuk mengelola jurnal filesystem Hadoop pada klaster HA.
hadoop-httpfs-server3.2.1-amzn-3Titik akhir HTTP untuk operasi HDFS.
hadoop-kms-server3.2.1-amzn-3Server manajemen kunci kriptografi berdasarkan API Hadoop. KeyProvider
hadoop-mapred3.2.1-amzn-3MapReduce pustaka mesin eksekusi untuk menjalankan MapReduce aplikasi.
hadoop-yarn-nodemanager3.2.1-amzn-3Layanan YARN untuk mengelola kontainer pada simpul individu.
hadoop-yarn-resourcemanager3.2.1-amzn-3Layanan YARN untuk mengalokasikan dan mengelola sumber daya klaster dan aplikasi terdistribusi.
hadoop-yarn-timeline-server3.2.1-amzn-3Layanan untuk mengambil informasi terkini dan historis untuk aplikasi YARN.
hbase-hmaster2.2.6-amzn-1Layanan untuk klaster HBase bertanggung jawab untuk koordinasi Wilayah dan pelaksanaan perintah administratif.
hbase-region-server2.2.6-amzn-1Layanan untuk melayani satu wilayah HBase atau lebih.
hbase-client2.2.6-amzn-1Klien baris perintah HBase.
hbase-rest-server2.2.6-amzn-1Layanan menyediakan titik akhir HTTP penuh REST untuk HBase.
hbase-thrift-server2.2.6-amzn-1Layanan yang menyediakan titik akhir Thrift untuk HBase.
hcatalog-client3.1.2-amzn-4Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server.
hcatalog-server3.1.2-amzn-4Layanan yang menyediakan HCatalog, lapisan tabel dan pengelolaan penyimpanan untuk aplikasi terdistribusi.
hcatalog-webhcat-server3.1.2-amzn-4Titik akhir HTTP yang menyediakan antarmuka REST untuk HCatalog.
hive-client3.1.2-amzn-4Klien baris perintah Hive.
hive-hbase3.1.2-amzn-4Klien Hive-hbase.
hive-metastore-server3.1.2-amzn-4Layanan untuk mengakses metastore Hive, repositori semantik yang menyimpan metadata untuk SQL pada operasi Hadoop.
hive-server23.1.2-amzn-4Layanan untuk menerima kueri Hive sebagai permintaan web.
hudi0.7.0-amzn-0Kerangka kerja pemrosesan tambahan untuk menyalakan alur data pada latensi rendah dan efisiensi tinggi.
hudi-presto0.7.0-amzn-0Perpustakaan paket untuk menjalankan Presto dengan Hudi.
hudi-prestosql0.7.0-amzn-0Perpustakaan paket untuk menjalankan PrestoSQL dengan Hudi.
hudi-spark0.7.0-amzn-0Perpustakaan paket untuk menjalankan Spark dengan Hudi.
hue-server4.9.0Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop
jupyterhub1.2.2Server multi-pengguna untuk notebook Jupyter
livy-server0.7.0-incubatingAntarmuka REST untuk berinteraksi dengan Apache Spark
nginx1.12.1nginx [engine x] adalah server HTTP dan server proksi balik
mxnet1.7.0Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning.
mariadb-server5.5.68+Server basis data MariaDB.
nvidia-cuda10.1.243Driver Nvidia dan kit alat Cuda
oozie-client5.2.1Klien baris perintah Oozie.
oozie-server5.2.1Layanan untuk menerima permintaan alur kerja Oozie.
opencv4.5.0Perpustakaan Visi Komputer Sumber Terbuka.
phoenix-library5.0.0-HBase-2.0Perpustakaan phoenix untuk server dan klien
phoenix-query-server5.0.0-HBase-2.0Sebuah server ringan yang menyediakan akses JDBC serta Protocol Buffers dan akses format JSON ke API Avatica
presto-coordinator0.245.1-amzn-0Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker.
presto-worker0.245.1-amzn-0Layanan untuk mengeksekusi potongan kueri.
presto-client0.245.1-amzn-0Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai.
prestosql-coordinator350Layanan untuk menerima kueri dan mengelola eksekusi kueri antara prestosql-woorker.
prestosql-worker350Layanan untuk mengeksekusi potongan kueri.
prestosql-client350Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai.
pig-client0.17.0Klien baris perintah Pig.
r4.0.2Proyek R untuk Komputasi Statistik
ranger-kms-server2.0.0Sistem Pengelolaan Kunci Ranger Apache
spark-client3.1.1-amzn-0Klien baris perintah Spark.
spark-history-server3.1.1-amzn-0Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark.
spark-on-yarn3.1.1-amzn-0Mesin eksekusi dalam memori untuk YARN.
spark-yarn-slave3.1.1-amzn-0Perpustakaan Apache Spark yang dibutuhkan oleh slave YARN.
spark-rapids0.4.1Plugin Nvidia Spark RAPIDS yang mempercepat Apache Spark dengan GPU.
sqoop-client1.4.7Klien baris perintah Apache Sqoop.
tensorflow2.4.1TensorFlow pustaka perangkat lunak open source untuk perhitungan numerik kinerja tinggi.
tez-on-yarn0.9.2Aplikasi dan perpustakaan tez YARN.
webserver2.4.41+Server HTTP Apache.
zeppelin-server0.9.0Notebook berbasis web yang memungkinkan analisis data interaktif.
zookeeper-server3.4.14Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup.
zookeeper-client3.4.14ZooKeeper klien baris perintah.

klasifikasi konfigurasi 6.3.0

Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering kali bersesuaian dengan file XML konfigurasi untuk aplikasi, seperti hive-site.xml. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.

Tindakan konfigurasi ulang terjadi ketika Anda menentukan konfigurasi untuk grup instans di klaster yang sedang berjalan. Amazon EMR hanya memulai tindakan konfigurasi ulang untuk klasifikasi yang Anda modifikasi. Untuk informasi selengkapnya, lihat Lakukan konfigurasi ulang pada grup instans di klaster yang sedang berjalan.

klasifikasi emr-6.3.0
Klasifikasi Deskripsi Tindakan Konfigurasi Ulang

capacity-scheduler

Ubah nilai dalam file capacity-scheduler.xml Hadoop.

Restarts the ResourceManager service.

container-executor

Ubah nilai dalam file container-executor.cfg Hadoop YARN ini.

Not available.

container-log4j

Ubah nilai dalam file container-log4j.properties Hadoop YARN.

Not available.

core-site

Ubah nilai dalam file core-site.xml Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Ubah pengaturan terkait docker.

Not available.

emrfs-site

Ubah pengaturan EMRFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Ubah pengaturan flink-conf.yaml.

Restarts Flink history server.

flink-log4j

Ubah pengaturan log4j.properties Flink.

Restarts Flink history server.

flink-log4j-session

Ubah pengaturan Flink log4j-session.properties untuk sesi Kubernetes/Yarn.

Restarts Flink history server.

flink-log4j-cli

Ubah pengaturan log4j-cli.properties Flink.

Restarts Flink history server.

hadoop-env

Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Ubah nilai dalam file log4j.properties Hadoop ini.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Ubah konfigurasi server ssl hadoop

Not available.

hadoop-ssl-client

Ubah konfigurasi klien ssl hadoop

Not available.

hbase

Pengaturan terkurasi Amazon EMR untuk Apache HBase.

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Ubah nilai dalam lingkungan HBase ini.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Ubah nilai dalam file hbase-log4j.properties HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Ubah nilai dalam file hbase-policy.xml HBase.

Not available.

hbase-site

Ubah nilai dalam file hbase-site.xml HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Konfigurasikan zona enkripsi HDFS.

This classification should not be reconfigured.

hdfs-env

Ubah nilai dalam lingkungan HDFS.

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

Ubah nilai dalam hdfs-site.xml HDFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Ubah nilai dalam lingkungan HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Mengubah nilai dalam jndi.properties HCatalog ini.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Ubah nilai proto-hive-site di.xml's HCatalog.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Ubah nilai dalam lingkungan HCatalog WebHCAT.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

Ubah nilai dalam log4j2.properties HCatalog WebHCAT.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

Ubah nilai dalam file webhcat-site.xml HCatalog WebHCAT.

Restarts Hive WebHCat server.

hive

Pengaturan dikurasi Amazon EMR untuk Apache Hive.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Ubah nilai dalam file beeline-log4j2.properties Hive.

Not available.

hive-parquet-logging

Ubah nilai dalam file parquet-logging.properties Hive.

Not available.

hive-env

Ubah nilai dalam lingkungan Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Ubah nilai dalam file hive-exec-log 4j2.properties Hive.

Not available.

hive-llap-daemon-log4j2

Ubah nilai dalam file llap-daemon-log 4j2.properties Hive.

Not available.

hive-log4j2

Ubah nilai dalam file hive-log4j2.properties Hive.

Not available.

hive-site

Ubah nilai dalam file hive-site.xml Hive

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Ubah nilai dalam file hiveserver2-site.xml Hive Server2

Not available.

hue-ini

Ubah nilai dalam file ini Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Ubah nilai di lingkungan HTTPFS.

Restarts Hadoop Httpfs service.

httpfs-site

Ubah nilai dalam file httpfs-site.xml Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Ubah nilai dalam file kms-acls.xml Hadoop.

Not available.

hadoop-kms-env

Ubah nilai dalam lingkungan Hadoop KMS.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Ubah nilai dalam file kms-log4j.properties Hadoop.

Not available.

hadoop-kms-site

Ubah nilai dalam file kms-site.xml Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Ubah nilai di lingkungan Hudi.

Not available.

jupyter-notebook-conf

Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook.

Not available.

jupyter-hub-conf

Ubah nilai dalam JupyterHubs file jupyterhub_config.py.

Not available.

jupyter-s3-conf

Konfigurasikan persistensi Jupyter Notebook S3.

Not available.

jupyter-sparkmagic-conf

Ubah nilai dalam file config.json Sparkmagic.

Not available.

livy-conf

Ubah nilai dalam file livy.conf Livy.

Restarts Livy Server.

livy-env

Ubah nilai di lingkungan Livy.

Restarts Livy Server.

livy-log4j

Ubah pengaturan Livy log4j.properties.

Restarts Livy Server.

mapred-env

Ubah nilai di lingkungan MapReduce aplikasi.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Ubah nilai dalam file mapred-site.xml MapReduce aplikasi.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Ubah nilai di lingkungan Oozie.

Restarts Oozie.

oozie-log4j

Ubah nilai dalam file oozie-log4j.properties Oozie.

Restarts Oozie.

oozie-site

Ubah nilai dalam file oozie-site.xml Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix.

Not available.

phoenix-hbase-site

Ubah nilai dalam file hbase-site.xml Phoenix.

Not available.

phoenix-log4j

Ubah nilai dalam file log4j.properties Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix.

Not available.

pig-env

Ubah nilai di lingkungan Pig.

Not available.

pig-properties

Ubah nilai dalam file pig.properties Pig.

Restarts Oozie.

pig-log4j

Ubah nilai dalam file log4j.properties Pig.

Not available.

presto-log

Ubah nilai dalam file log.properties Presto.

Restarts Presto-Server (for PrestoDB)

presto-config

Ubah nilai dalam file config.properties Presto.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Ubah nilai dalam file password-authenticator.properties Presto.

Not available.

presto-env

Ubah nilai dalam file presto-env.sh Presto.

Restarts Presto-Server (for PrestoDB)

presto-node

Ubah nilai dalam file node.properties Presto.

Not available.

presto-connector-blackhole

Ubah nilai dalam file blackhole.properties Presto.

Not available.

presto-connector-cassandra

Ubah nilai dalam file cassandra.properties Presto.

Not available.

presto-connector-hive

Ubah nilai dalam file hive.properties Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Ubah nilai dalam file jmx.properties Presto.

Not available.

presto-connector-kafka

Ubah nilai dalam file kafka.properties Presto.

Not available.

presto-connector-localfile

Ubah nilai dalam file localfile.properties Presto.

Not available.

presto-connector-memory

Ubah nilai dalam file memory.properties Presto.

Not available.

presto-connector-mongodb

Ubah nilai dalam file mongodb.properties Presto.

Not available.

presto-connector-mysql

Ubah nilai dalam file mysql.properties Presto.

Not available.

presto-connector-postgresql

Ubah nilai dalam file postgresql.properties Presto.

Not available.

presto-connector-raptor

Ubah nilai dalam file raptor.properties Presto.

Not available.

presto-connector-redis

Ubah nilai dalam file redis.properties Presto.

Not available.

presto-connector-redshift

Ubah nilai dalam file redshift.properties Presto.

Not available.

presto-connector-tpch

Ubah nilai dalam file tpch.properties Presto.

Not available.

presto-connector-tpcds

Ubah nilai dalam file tpcds.properties Presto.

Not available.

prestosql-log

Ubah nilai dalam file log.properties Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-config

Ubah nilai dalam file config.properties Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-password-authenticator

Ubah nilai dalam file password-authenticator.properties Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-env

Ubah nilai dalam file presto-env.sh Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-node

Ubah nilai dalam file node.properties PrestoSQL.

Not available.

prestosql-connector-blackhole

Ubah nilai dalam file blackhole.properties PrestoSQL.

Not available.

prestosql-connector-cassandra

Ubah nilai dalam file cassandra.properties PrestoSQL.

Not available.

prestosql-connector-hive

Ubah nilai dalam file hive.properties PrestoSQL.

Restarts Presto-Server (for PrestoSQL)

prestosql-connector-jmx

Ubah nilai dalam file jmx.properties PrestoSQL.

Not available.

prestosql-connector-kafka

Ubah nilai dalam file kafka.properties PrestoSQL.

Not available.

prestosql-connector-localfile

Ubah nilai dalam file localfile.properties PrestoSQL.

Not available.

prestosql-connector-memory

Ubah nilai dalam file memory.properties PrestoSQL.

Not available.

prestosql-connector-mongodb

Ubah nilai dalam file mongodb.properties PrestoSQL.

Not available.

prestosql-connector-mysql

Ubah nilai dalam file mysql.properties PrestoSQL.

Not available.

prestosql-connector-postgresql

Ubah nilai dalam file postgresql.properties PrestoSQL.

Not available.

prestosql-connector-raptor

Ubah nilai dalam file raptor.properties PrestoSQL.

Not available.

prestosql-connector-redis

Ubah nilai dalam file redis.properties PrestoSQL.

Not available.

prestosql-connector-redshift

Ubah nilai dalam file redshift.properties PrestoSQL.

Not available.

prestosql-connector-tpch

Ubah nilai dalam file tpch.properties PrestoSQL.

Not available.

prestosql-connector-tpcds

Ubah nilai dalam file tpcds.properties PrestoSQL.

Not available.

ranger-kms-dbks-site

Ubah nilai dalam file dbks-site.xml Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-site

Ubah nilai dalam ranger-kms-site file.xml. dari Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-env

Ubah nilai di lingkungan Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-log4j

Ubah nilai dalam file kms-log4j.properties Ranger KMS.

Not available.

ranger-kms-db-ca

Ubah nilai untuk file CA pada S3 untuk koneksi MySQL SSL dengan Ranger KMS.

Not available.

spark

Pengaturan terkurasi Amazon EMR untuk Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Ubah nilai dalam file spark-defaults.conf Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Ubah nilai di lingkungan Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Ubah nilai dalam file hive-site.xml Spark

Not available.

spark-log4j

Ubah nilai dalam file log4j.properties Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Ubah nilai dalam file metrics.properties Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Ubah nilai dalam lingkungan Sqoop.

Not available.

sqoop-oraoop-site

Ubah nilai dalam file oraoop-site.xml Sqoop OraOop ini.

Not available.

sqoop-site

Ubah nilai dalam file sqoop-site.xml Sqoop.

Not available.

tez-site

Ubah nilai dalam file tez-site.xml Tez.

Restart Oozie and HiveServer2.

yarn-env

Ubah nilai di lingkungan YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Ubah nilai dalam file yarn-site.xml YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Ubah nilai di lingkungan Zeppelin.

Restarts Zeppelin.

zeppelin-site

Ubah pengaturan konfigurasi di zeppelin-site.xml.

Restarts Zeppelin.

zookeeper-config

Ubah nilai dalam ZooKeeper file zoo.cfg.

Restarts Zookeeper server.

zookeeper-log4j

Ubah nilai dalam file ZooKeeper log4j.properties.

Restarts Zookeeper server.