Amazon EMR Rilis 5.25.0 - Amazon EMR

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Amazon EMR Rilis 5.25.0

Versi aplikasi 5.25.0

Aplikasi berikut didukung dalam rilis ini: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin, dan ZooKeeper.

Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon EMR ini dan versi aplikasi dalam tiga rilis EMR Amazon sebelumnya (bila berlaku).

Untuk riwayat lengkap versi aplikasi untuk setiap rilis Amazon EMR, lihat topik berikut:

Informasi versi aplikasi
emr-5.25.0 emr-5.24.1 emr-5.24.0 emr-5.23.1
AWS SDK for Java 1.11.5661.11.5461.11.5461.11.519
Python 2.7, 3.62.7, 3.62.7, 3.62.7, 3.6
Skala 2.11.122.11.122.11.122.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.8.01.8.01.8.01.7.1
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.91.4.91.4.91.4.9
HCatalog2.3.52.3.42.3.42.3.4
Hadoop2.8.52.8.52.8.52.8.5
Hive2.3.52.3.42.3.42.3.4
Hudi - - - -
Hue4.4.04.4.04.4.04.3.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub0.9.60.9.60.9.60.9.4
Livy0.6.00.6.00.6.00.5.0
MXNet1.4.01.4.01.4.01.3.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.1.05.1.05.1.05.1.0
Phoenix4.14.14.14.14.14.14.14.1
Pig0.17.00.17.00.17.00.17.0
Presto0,2200,2190,2190,215
Spark2.4.32.4.22.4.22.4.0
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.13.11.12.01.12.01.12.0
Tez0.9.20.9.10.9.10.9.1
Trino (PrestoSQL) - - - -
Zeppelin0.8.10.8.10.8.10.8.1
ZooKeeper3.4.143.4.133.4.133.4.13

Catatan rilis 5.25.0

Catatan rilis berikut mencakup informasi untuk Amazon EMR rilis 5.25.0. Perubahan bersifat relatif terhadap 5.24.1.

Tanggal rilis awal: 17 Juli 2019

Tanggal terakhir diperbarui: 30 Oktober 2019

Amazon EMR 5.25.0

Upgrade
  • AWS SDK for Java1.11.566

  • Hive versi 2.3.5

  • Presto versi 0.220

  • Spark versi 2.4.3

  • TensorFlow 1.13.1

  • Tez versi 0.9.2

  • Zookeeper versi 3.4.14

Fitur baru
  • (30 Oktober 2019) Dimulai dengan Amazon EMR versi 5.25.0, Anda dapat terhubung ke UI server riwayat Spark dari halaman klaster Ringkasan atau tab Riwayat aplikasi di konsol. Alih-alih menyiapkan proxy web melalui koneksi SSH, Anda dapat dengan cepat mengakses UI server riwayat Spark untuk melihat metrik aplikasi dan mengakses berkas log yang relevan untuk klaster aktif dan yang dihentikan. Untuk informasi selengkapnya, lihat Akses off-klaster ke antarmuka pengguna aplikasi persisten di Panduan Pengelolaan Amazon EMR.

Perubahan, penyempurnaan, dan masalah yang diselesaikan
  • Spark

    • Peningkatan performa beberapa join dengan menggunakan filter Bloom untuk melakukan pra-filter input. Optimalisasi dinonaktifkan secara default dan dapat diaktifkan dengan mengatur parameter konfigurasi Spark dari spark.sql.bloomFilterJoin.enabled ke true.

    • Peningkatan performa pembuatan grup menurut kolom tipe string.

    • Peningkatan memori eksekutor default Spark dan konfigurasi inti tipe instans R4 untuk klaster tanpa HBase yang diinstal.

    • Penyelesaian masalah sebelumnya terkait dengan fitur pemangkasan partisi dinamis di mana tabel yang dipangkas harus berada di sisi kiri join.

    • Peningkatan DISTINCT sebelum optimasi INTERSECT untuk diterapkan pada kasus tambahan yang melibatkan nama alias.

    • Peningkatan inferensi statistik rencana SQL untuk JOIN yang diikuti oleh kueri DISTINCT. Perbaikan ini dinonaktifkan secara default dan dapat diaktifkan dengan mengatur parameter konfigurasi Spark dari spark.sql.statsImprovements.enabled ke true. Optimasi ini diperlukan oleh fitur Distinct before Intersect dan akan diaktifkan secara otomatis ketika spark.sql.optimizer.distinctBeforeIntersect.enabled diatur ke true.

    • Join order telah dioptimalkan berdasarkan ukuran tabel dan filter. Optimalisasi ini dinonaktifkan secara default dan dapat diaktifkan dengan menetapkan parameter konfigurasi Spark dari spark.sql.optimizer.sizeBasedJoinReorder.enabled ke true.

    Untuk informasi selengkapnya, lihat Mengoptimalkan Performa Spark.

  • EMRFS

    • Pengaturan EMRFS, fs.s3.buckets.create.enabled, sekarang dinonaktifkan secara default. Dengan pengujian, kami menemukan bahwa dengan menonaktifkan pengaturan ini akan meningkatkan performa dan mencegah pembuatan bucket S3 yang tidak disengaja. Jika aplikasi Anda bergantung pada fungsi ini, maka Anda dapat mengaktifkannya dengan mengatur properti fs.s3.buckets.create.enabled ke true di klasifikasi konfigurasi emrfs-site. Untuk informasi, lihat Menyediakan Konfigurasi saat Membuat Klaster.

  • Enkripsi Disk Lokal dan Peningkatan Enkripsi S3 dalam Konfigurasi Keamanan (5 Agustus 2019)

    • Pemisahan pengaturan enkripsi Amazon S3 dari pengaturan enkripsi disk lokal dalam pengaturan konfigurasi keamanan.

    • Penambahan opsi untuk mengaktifkan enkripsi EBS dengan rilis 5.24.0 dan versi setelahnya. Memilih opsi ini akan mengenkripsi volume perangkat asal selain volume penyimpanan. Versi sebelumnya diharuskan menggunakan AMI kustom untuk mengenkripsi volume perangkat asal.

    • Untuk informasi selengkapnya, lihat Opsi Enkripsi di Panduan Pengelolaan Amazon EMR.

Masalah yang diketahui
  • Masalah yang diketahui dalam cluster dengan beberapa node primer dan otentikasi Kerberos

    Jika Anda menjalankan cluster dengan beberapa node utama dan otentikasi Kerberos di Amazon EMR rilis 5.20.0 dan yang lebih baru, Anda mungkin mengalami masalah dengan operasi klaster seperti penurunan skala atau pengiriman langkah, setelah klaster berjalan selama beberapa waktu. Periode waktunya tergantung pada masa validitas tiket Kerberos yang Anda tetapkan. Masalah menurunkan skala akan berdampak pada permintaan menurunkan skala otomatis dan permintaan menurunkan skala eksplisit yang Anda kirimkan. Operasi klaster tambahan juga dapat terkena dampak.

    Pemecahan masalah:

    • SSH sebagai hadoop pengguna ke node utama utama dari cluster EMR dengan beberapa node primer.

    • Jalankan perintah berikut untuk memperbarui tiket Kerberos untuk pengguna hadoop.

      kinit -kt <keytab_file> <principal>

      Biasanya, fail keytab terletak di /etc/hadoop.keytab dan file utama-nya dalam bentuk hadoop/<hostname>@<REALM>.

    catatan

    Pemecahan masalah ini akan efektif untuk jangka waktu selama tiket Kerberos berlaku. Durasi ini adalah 10 jam secara default, tetapi dapat dikonfigurasi dengan pengaturan Kerberos Anda. Anda harus menjalankan kembali perintah di atas setelah tiket Kerberos berakhir.

Versi komponen 5.25.0

Komponen yang diinstal oleh Amazon EMR dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Sedangkan komponen lainnya bersifak unik untuk Amazon EMR dan diinstal untuk proses sistem dan fitur. Ini biasanya dimulai dengan emr atau aws. Paket aplikasi big data dalam rilis Amazon EMR terbaru biasanya versi terbaru yang ditemukan di komunitas. Kami menyediakan rilis komunitas di Amazon EMR secepat mungkin.

Beberapa komponen yang ada di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk CommunityVersion-amzn-EmrVersion. EmrVersion dimulai dari 0. Misalnya, jika komponen komunitas open source bernama myapp-component dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam rilis EMR Amazon yang berbeda, versi rilisnya terdaftar sebagai. 2.2-amzn-2

Komponen Versi Deskripsi
aws-sagemaker-spark-sdk1.2.4Amazon SageMaker Spark SDK
emr-ddb4.10.0Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop.
emr-goodies2.9.0Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop.
emr-kinesis3.4.0Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop.
emr-s3-dist-cp2.11.0Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3.
emr-s3-select1.3.0EMR S3Select Connector
emrfs2.34.0Konektor Amazon S3 untuk aplikasi ekosistem Hadoop.
flink-client1.8.0Skrip dan aplikasi klien baris perintah Apache Flink.
ganglia-monitor3.7.2Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia.
ganglia-metadata-collector3.7.2Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia.
ganglia-web3.7.1Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia.
hadoop-client2.8.5-amzn-4Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'.
hadoop-hdfs-datanode2.8.5-amzn-4Layanan tingkat simpul HDFS untuk menyimpan blok.
hadoop-hdfs-library2.8.5-amzn-4Klien dan perpustakaan baris perintah HDFS
hadoop-hdfs-namenode2.8.5-amzn-4Layanan HDFS untuk melacak nama file dan lokasi blok.
hadoop-hdfs-journalnode2.8.5-amzn-4Layanan HDFS untuk mengelola jurnal filesystem Hadoop pada klaster HA.
hadoop-httpfs-server2.8.5-amzn-4Titik akhir HTTP untuk operasi HDFS.
hadoop-kms-server2.8.5-amzn-4Server manajemen kunci kriptografi berdasarkan API Hadoop. KeyProvider
hadoop-mapred2.8.5-amzn-4MapReduce pustaka mesin eksekusi untuk menjalankan MapReduce aplikasi.
hadoop-yarn-nodemanager2.8.5-amzn-4Layanan YARN untuk mengelola kontainer pada simpul individu.
hadoop-yarn-resourcemanager2.8.5-amzn-4Layanan YARN untuk mengalokasikan dan mengelola sumber daya klaster dan aplikasi terdistribusi.
hadoop-yarn-timeline-server2.8.5-amzn-4Layanan untuk mengambil informasi terkini dan historis untuk aplikasi YARN.
hbase-hmaster1.4.9Layanan untuk klaster HBase bertanggung jawab untuk koordinasi Wilayah dan pelaksanaan perintah administratif.
hbase-region-server1.4.9Layanan untuk melayani satu wilayah HBase atau lebih.
hbase-client1.4.9Klien baris perintah HBase.
hbase-rest-server1.4.9Layanan menyediakan titik akhir HTTP penuh REST untuk HBase.
hbase-thrift-server1.4.9Layanan yang menyediakan titik akhir Thrift untuk HBase.
hcatalog-client2.3.5 amzn-0Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server.
hcatalog-server2.3.5 amzn-0Layanan yang menyediakan HCatalog, lapisan tabel dan pengelolaan penyimpanan untuk aplikasi terdistribusi.
hcatalog-webhcat-server2.3.5 amzn-0Titik akhir HTTP yang menyediakan antarmuka REST untuk HCatalog.
hive-client2.3.5 amzn-0Klien baris perintah Hive.
hive-hbase2.3.5 amzn-0Klien Hive-hbase.
hive-metastore-server2.3.5 amzn-0Layanan untuk mengakses metastore Hive, repositori semantik yang menyimpan metadata untuk SQL pada operasi Hadoop.
hive-server22.3.5 amzn-0Layanan untuk menerima kueri Hive sebagai permintaan web.
hue-server4.4.0Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop
jupyterhub0.9.6Server multi-pengguna untuk notebook Jupyter
livy-server0.6.0-incubatingAntarmuka REST untuk berinteraksi dengan Apache Spark
nginx1.12.1nginx [engine x] adalah server HTTP dan server proksi balik
mahout-client0.13.0Perpustakaan untuk machine learning.
mxnet1.4.0Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning.
mysql-server5.5.54+Server basis data MySQL.
nvidia-cuda9.2.88Driver Nvidia dan kit alat Cuda
oozie-client5.1.0Klien baris perintah Oozie.
oozie-server5.1.0Layanan untuk menerima permintaan alur kerja Oozie.
opencv3.4.0Perpustakaan Visi Komputer Sumber Terbuka.
phoenix-library4.14.1-HBASE-1.4Perpustakaan phoenix untuk server dan klien
phoenix-query-server4.14.1-HBASE-1.4Sebuah server ringan yang menyediakan akses JDBC serta Protocol Buffers dan akses format JSON ke API Avatica
presto-coordinator0,220Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker.
presto-worker0,220Layanan untuk mengeksekusi potongan kueri.
pig-client0.17.0Klien baris perintah Pig.
r3.4.1Proyek R untuk Komputasi Statistik
spark-client2.4.3Klien baris perintah Spark.
spark-history-server2.4.3Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark.
spark-on-yarn2.4.3Mesin eksekusi dalam memori untuk YARN.
spark-yarn-slave2.4.3Perpustakaan Apache Spark yang dibutuhkan oleh slave YARN.
sqoop-client1.4.7Klien baris perintah Apache Sqoop.
tensorflow1.13.1TensorFlow pustaka perangkat lunak open source untuk perhitungan numerik kinerja tinggi.
tez-on-yarn0.9.2Aplikasi dan perpustakaan tez YARN.
webserver2.4.25+Server HTTP Apache.
zeppelin-server0.8.1Notebook berbasis web yang memungkinkan analisis data interaktif.
zookeeper-server3.4.14Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup.
zookeeper-client3.4.14ZooKeeper klien baris perintah.

Klasifikasi konfigurasi 5.25.0

Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering kali bersesuaian dengan file XML konfigurasi untuk aplikasi, seperti hive-site.xml. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.

klasifikasi emr-5.25.0
Klasifikasi Deskripsi

capacity-scheduler

Ubah nilai dalam file capacity-scheduler.xml Hadoop.

container-log4j

Ubah nilai dalam file container-log4j.properties Hadoop YARN.

core-site

Ubah nilai dalam file core-site.xml Hadoop.

emrfs-site

Ubah pengaturan EMRFS.

flink-conf

Ubah pengaturan flink-conf.yaml.

flink-log4j

Ubah pengaturan log4j.properties Flink.

flink-log4j-yarn-session

Ubah pengaturan Flink log4 j-yarn-session .properties.

flink-log4j-cli

Ubah pengaturan log4j-cli.properties Flink.

hadoop-env

Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop.

hadoop-log4j

Ubah nilai dalam file log4j.properties Hadoop ini.

hadoop-ssl-server

Ubah konfigurasi server ssl hadoop

hadoop-ssl-client

Ubah konfigurasi klien ssl hadoop

hbase

Pengaturan terkurasi Amazon EMR untuk Apache HBase.

hbase-env

Ubah nilai dalam lingkungan HBase ini.

hbase-log4j

Ubah nilai dalam file hbase-log4j.properties HBase.

hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties HBase.

hbase-policy

Ubah nilai dalam file hbase-policy.xml HBase.

hbase-site

Ubah nilai dalam file hbase-site.xml HBase.

hdfs-encryption-zones

Konfigurasikan zona enkripsi HDFS.

hdfs-site

Ubah nilai dalam hdfs-site.xml HDFS.

hcatalog-env

Ubah nilai dalam lingkungan HCatalog.

hcatalog-server-jndi

Mengubah nilai dalam jndi.properties HCatalog ini.

hcatalog-server-proto-hive-site

Ubah nilai proto-hive-site di.xml's HCatalog.

hcatalog-webhcat-env

Ubah nilai dalam lingkungan HCatalog WebHCAT.

hcatalog-webhcat-log4j2

Ubah nilai dalam log4j2.properties HCatalog WebHCAT.

hcatalog-webhcat-site

Ubah nilai dalam file webhcat-site.xml HCatalog WebHCAT.

hive-beeline-log4j2

Ubah nilai dalam file beeline-log4j2.properties Hive.

hive-parquet-logging

Ubah nilai dalam file parquet-logging.properties Hive.

hive-env

Ubah nilai dalam lingkungan Hive.

hive-exec-log4j2

Ubah nilai dalam file hive-exec-log 4j2.properties Hive.

hive-llap-daemon-log4j2

Ubah nilai dalam file llap-daemon-log 4j2.properties Hive.

hive-log4j2

Ubah nilai dalam file hive-log4j2.properties Hive.

hive-site

Ubah nilai dalam file hive-site.xml Hive

hiveserver2-site

Ubah nilai dalam file hiveserver2-site.xml Hive Server2

hue-ini

Ubah nilai dalam file ini Hue

httpfs-env

Ubah nilai di lingkungan HTTPFS.

httpfs-site

Ubah nilai dalam file httpfs-site.xml Hadoop.

hadoop-kms-acls

Ubah nilai dalam file kms-acls.xml Hadoop.

hadoop-kms-env

Ubah nilai dalam lingkungan Hadoop KMS.

hadoop-kms-log4j

Ubah nilai dalam file kms-log4j.properties Hadoop.

hadoop-kms-site

Ubah nilai dalam file kms-site.xml Hadoop.

jupyter-notebook-conf

Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook.

jupyter-hub-conf

Ubah nilai dalam JupyterHubs file jupyterhub_config.py.

jupyter-s3-conf

Konfigurasikan persistensi Jupyter Notebook S3.

jupyter-sparkmagic-conf

Ubah nilai dalam file config.json Sparkmagic.

livy-conf

Ubah nilai dalam file livy.conf Livy.

livy-env

Ubah nilai di lingkungan Livy.

livy-log4j

Ubah pengaturan Livy log4j.properties.

mapred-env

Ubah nilai di lingkungan MapReduce aplikasi.

mapred-site

Ubah nilai dalam file mapred-site.xml MapReduce aplikasi.

oozie-env

Ubah nilai di lingkungan Oozie.

oozie-log4j

Ubah nilai dalam file oozie-log4j.properties Oozie.

oozie-site

Ubah nilai dalam file oozie-site.xml Oozie.

phoenix-hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix.

phoenix-hbase-site

Ubah nilai dalam file hbase-site.xml Phoenix.

phoenix-log4j

Ubah nilai dalam file log4j.properties Phoenix.

phoenix-metrics

Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix.

pig-env

Ubah nilai di lingkungan Pig.

pig-properties

Ubah nilai dalam file pig.properties Pig.

pig-log4j

Ubah nilai dalam file log4j.properties Pig.

presto-log

Ubah nilai dalam file log.properties Presto.

presto-config

Ubah nilai dalam file config.properties Presto.

presto-password-authenticator

Ubah nilai dalam file password-authenticator.properties Presto.

presto-env

Ubah nilai dalam file presto-env.sh Presto.

presto-node

Ubah nilai dalam file node.properties Presto.

presto-connector-blackhole

Ubah nilai dalam file blackhole.properties Presto.

presto-connector-cassandra

Ubah nilai dalam file cassandra.properties Presto.

presto-connector-hive

Ubah nilai dalam file hive.properties Presto.

presto-connector-jmx

Ubah nilai dalam file jmx.properties Presto.

presto-connector-kafka

Ubah nilai dalam file kafka.properties Presto.

presto-connector-localfile

Ubah nilai dalam file localfile.properties Presto.

presto-connector-memory

Ubah nilai dalam file memory.properties Presto.

presto-connector-mongodb

Ubah nilai dalam file mongodb.properties Presto.

presto-connector-mysql

Ubah nilai dalam file mysql.properties Presto.

presto-connector-postgresql

Ubah nilai dalam file postgresql.properties Presto.

presto-connector-raptor

Ubah nilai dalam file raptor.properties Presto.

presto-connector-redis

Ubah nilai dalam file redis.properties Presto.

presto-connector-redshift

Ubah nilai dalam file redshift.properties Presto.

presto-connector-tpch

Ubah nilai dalam file tpch.properties Presto.

presto-connector-tpcds

Ubah nilai dalam file tpcds.properties Presto.

recordserver-env

Ubah nilai di lingkungan EMR RecordServer .

recordserver-conf

Ubah nilai dalam file erver.properties EMR RecordServer.

recordserver-log4j

Ubah nilai dalam file log4j.properties EMR RecordServer.

spark

Pengaturan terkurasi Amazon EMR untuk Apache Spark.

spark-defaults

Ubah nilai dalam file spark-defaults.conf Spark.

spark-env

Ubah nilai di lingkungan Spark.

spark-hive-site

Ubah nilai dalam file hive-site.xml Spark

spark-log4j

Ubah nilai dalam file log4j.properties Spark.

spark-metrics

Ubah nilai dalam file metrics.properties Spark.

sqoop-env

Ubah nilai dalam lingkungan Sqoop.

sqoop-oraoop-site

Ubah nilai dalam file oraoop-site.xml Sqoop OraOop ini.

sqoop-site

Ubah nilai dalam file sqoop-site.xml Sqoop.

tez-site

Ubah nilai dalam file tez-site.xml Tez.

yarn-env

Ubah nilai di lingkungan YARN.

yarn-site

Ubah nilai dalam file yarn-site.xml YARN.

zeppelin-env

Ubah nilai di lingkungan Zeppelin.

zookeeper-config

Ubah nilai dalam ZooKeeper file zoo.cfg.

zookeeper-log4j

Ubah nilai dalam file ZooKeeper log4j.properties.