Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Amazon EMR rilis 5.30.1 - Amazon EMR

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Amazon EMR rilis 5.30.1

5.30.1 versi aplikasi

Rilis ini mencakup aplikasi berikut: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin, dan ZooKeeper.

Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon EMR ini dan versi aplikasi dalam tiga rilis EMR Amazon sebelumnya (bila berlaku).

Untuk riwayat lengkap versi aplikasi untuk setiap rilis Amazon EMR, lihat topik berikut:

Informasi versi aplikasi
emr-5.30.1 emr-5.30.0 emr-5.29.0 emr-5.28.1
AWS SDK for Java 1.11.7591.11.7591.11.6821.11.659
Python 2.7, 3.72.7, 3.72.7, 3.62.7, 3.6
Skala 2.11.122.11.122.11.122.11.12
AmazonCloudWatchAgent - - - -
kuala - - - -
Flink1.10.01.10.01.9.11.9.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.131.4.101.4.10
HCatalog2.3.62.3.62.3.62.3.6
Hadoop2.8.52.8.52.8.52.8.5
Hive2.3.62.3.62.3.62.3.6
Hudi0.5.2-incubating0.5.2-incubating0.5.0-incubating0.5.0-incubating
Hue4.6.04.6.04.4.04.4.0
Gunung es - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.0.01.0.0
Livy0.7.00.7.00.6.00.6.0
MXNet1.5.11.5.11.5.11.5.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.2.05.1.05.1.0
Phoenix4.14.34.14.34.14.34.14.3
Pig0.17.00.17.00.17.00.17.0
Presto0,2320,2320,2270,227
Spark2.4.52.4.52.4.42.4.4
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.14.01.14.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestosQL) - - - -
Zeppelin0.8.20.8.20.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

Catatan terbitan 5.30.1

Catatan rilis berikut mencakup informasi untuk Amazon EMR rilis 5.30.1. Perubahan bersifat relatif terhadap 5.30.0.

Tanggal rilis awal: 30 Juni 2020

Tanggal terakhir diperbarui: 24 Agustus 2020

Perubahan, penyempurnaan, dan masalah yang diselesaikan
  • Rilis Amazon EMR yang lebih baru memperbaiki masalah dengan batas “Max open files” yang lebih rendah pada yang lebih lama AL2 di Amazon EMR. Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru sekarang menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi.

  • Masalah di mana proses pengendali instans melahirkan jumlah proses yang tak terbatas telah diperbaiki.

  • Masalah di mana Hue tidak dapat menjalankan kueri Hive, menampilkan pesan "basis data terkunci" dan mencegah eksekusi kueri telah diperbaiki.

  • Perbaikan terhadap masalah Spark dalam mengaktifkan lebih banyak tugas untuk dijalankan secara bersamaan di klaster EMR.

  • Perbaikan terhadap masalah notebook Jupyter yang menyebabkan "kesalahan terlalu banyak file terbuka" di server Jupyter.

  • Perbaikan terhadap masalah dengan waktu mulai klaster.

Fitur baru
  • Antarmuka aplikasi persisten server linimasa Tez UI dan YARN tersedia dengan Amazon EMR versi 6.x, dan EMR versi 5.30.1 dan versi setelahnya. Akses tautan satu klik ke riwayat aplikasi persisten memungkinkan Anda mengakses riwayat tugas dengan cepat tanpa perlu menyiapkan proxy web melalui koneksi SSH. Log untuk klaster aktif dan yang dihentikan tersedia selama 30 hari setelah aplikasi berakhir. Untuk informasi selengkapnya, lihat Melihat Antarmuka Pengguna Aplikasi Persisten di Panduan Pengelolaan Amazon EMR.

  • Eksekusi EMR Notebook APIs tersedia untuk mengeksekusi notebook EMR melalui skrip atau baris perintah. Kemampuan untuk memulai, menghentikan, daftar, dan menjelaskan eksekusi notebook EMR tanpa AWS konsol memungkinkan Anda mengontrol notebook EMR secara terprogram. Menggunakan sel notebook parameter, Anda dapat memberikan nilai parameter yang berbeda ke notebook tanpa harus membuat salinan notebook untuk setiap set baru nilai paramter. Lihat Tindakan API EMR. Untuk kode sampel, lihat Contoh perintah untuk menjalankan EMR Notebooks secara pemrograman.

Masalah yang diketahui
  • Turunkan batas “Maks open files” pada yang lebih lama AL2 [diperbaiki dalam rilis yang lebih baru]. Rilis Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, dan emr-6.2.0 didasarkan pada versi lama dari Amazon Linux 2 (), yang memiliki pengaturan ulimit yang lebih rendah untuk “File terbuka maksimum” ketika kluster Amazon EMR dibuat dengan AMI default. AL2 Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi. Rilis dengan batas file terbuka yang lebih rendah menyebabkan kesalahan “Terlalu banyak file terbuka” saat mengirimkan pekerjaan Spark. Dalam rilis yang terkena dampak, AMI default Amazon EMR memiliki pengaturan ulimit default 4096 untuk “File terbuka maksimum,” yang lebih rendah dari batas file 65536 di AMI Amazon Linux 2 terbaruAmazon. Pengaturan ulimit yang lebih rendah untuk "Maksimal file terbuka" menyebabkan kegagalan tugas Spark ketika driver dan pelaksana mencoba untuk membuka lebih dari 4096 file. Untuk memperbaiki masalah, Amazon EMR memiliki skrip tindakan bootstrap (BA) yang menyesuaikan pengaturan ulimit saat pembuatan klaster.

    Jika Anda menggunakan versi EMR Amazon yang lebih lama yang tidak memiliki perbaikan permanen untuk masalah ini, solusi berikut memungkinkan Anda untuk secara eksplisit mengatur ulimit pengontrol instans ke maksimum 65536 file.

    Mengatur secara eksplisit ulimit dari baris perintah
    1. Edit /etc/systemd/system/instance-controller.service untuk menambahkan parameter berikut ke bagian Layanan.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Mulai ulang InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Tetapkan ulimit menggunakan tindakan bootstrap (BA)

    Anda juga dapat menggunakan skrip tindakan bootstrap (BA) untuk mengkonfigurasi ulimit instans-pengendali menjadi 65536 file saat pembuatan klaster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • EMR Notebooks

    Fitur yang memungkinkan Anda untuk menginstal kernel dan pustaka Python tambahan pada node utama cluster dinonaktifkan secara default pada EMR versi 5.30.1. Untuk informasi selengkapnya tentang fitur ini, lihat Menginstal Kernel dan Pustaka Python pada Node Utama Cluster.

    Untuk mengaktifkan fitur, lakukan hal berikut ini:

    1. Pastikan bahwa kebijakan izin yang dilampirkan ke peran layanan untuk EMR Notebooks mengizinkan tindakan berikut ini:

      elasticmapreduce:ListSteps

      Untuk informasi selengkapnya, lihat Peran Layanan untuk EMR Notebooks.

    2. Gunakan AWS CLI untuk menjalankan langkah pada cluster yang mengatur EMR Notebooks seperti yang ditunjukkan pada contoh berikut. Ganti us-east-1 dengan Wilayah tempat klaster Anda berada. Untuk informasi selengkapnya, lihat Menambahkan Langkah-langkah untuk Klaster Menggunakan AWS CLI.

      aws emr add-steps --cluster-id MyClusterID --steps Type=CUSTOM_JAR,Name=EMRNotebooksSetup,ActionOnFailure=CONTINUE,Jar=s3://us-east-1.elasticmapreduce/libs/script-runner/script-runner.jar,Args=["s3://awssupportdatasvcs.com/bootstrap-actions/EMRNotebooksSetup/emr-notebooks-setup.sh"]
  • Penskalaan terkelola

    Operasi penskalaan terkelola pada klaster 5.30.0 dan 5.30.1 tanpa Presto yang diinstal dapat menyebabkan gagal aplikasi atau menyebabkan grup instans seragam atau armada instans tetap berada di negara ARRESTED, terutama ketika operasi menurunkan skala diikuti dengan cepat oleh operasi menaikkan skala.

    Sebagai solusinya, pilih Presto sebagai aplikasi untuk diinstal saat Anda membuat cluster dengan Amazon EMR rilis 5.30.0 dan 5.30.1, bahkan jika pekerjaan Anda tidak memerlukan Presto.

  • Masalah yang diketahui dalam cluster dengan beberapa node primer dan otentikasi Kerberos

    Jika Anda menjalankan cluster dengan beberapa node utama dan otentikasi Kerberos di Amazon EMR rilis 5.20.0 dan yang lebih baru, Anda mungkin mengalami masalah dengan operasi klaster seperti penurunan skala atau pengiriman langkah, setelah klaster berjalan selama beberapa waktu. Periode waktunya tergantung pada masa validitas tiket Kerberos yang Anda tetapkan. Masalah menurunkan skala akan berdampak pada permintaan menurunkan skala otomatis dan permintaan menurunkan skala eksplisit yang Anda kirimkan. Operasi klaster tambahan juga dapat terkena dampak.

    Pemecahan masalah:

    • SSH sebagai hadoop pengguna ke node utama utama dari cluster EMR dengan beberapa node primer.

    • Jalankan perintah berikut untuk memperbarui tiket Kerberos untuk pengguna hadoop.

      kinit -kt <keytab_file> <principal>

      Biasanya, fail keytab terletak di /etc/hadoop.keytab dan file utama-nya dalam bentuk hadoop/<hostname>@<REALM>.

    catatan

    Pemecahan masalah ini akan efektif untuk jangka waktu selama tiket Kerberos berlaku. Durasi ini adalah 10 jam secara default, tetapi dapat dikonfigurasi dengan pengaturan Kerberos Anda. Anda harus menjalankan kembali perintah di atas setelah tiket Kerberos berakhir.

  • Saat Anda menggunakan format lokasi partisi Spark dengan Hive untuk membaca data di Amazon S3, dan Anda menjalankan Spark di Amazon EMR rilis 5.30.0 hingga 5.36.0, dan 6.2.0 hingga 6.9.0, Anda mungkin mengalami masalah yang mencegah klaster membaca data dengan benar. Ini dapat terjadi jika partisi Anda memiliki semua karakteristik berikut:

    • Dua atau lebih partisi dipindai dari tabel yang sama.

    • Setidaknya satu jalur direktori partisi adalah awalan dari setidaknya satu jalur direktori partisi lainnya, misalnya, s3://bucket/table/p=a adalah awalan dari. s3://bucket/table/p=a b

    • Karakter pertama yang mengikuti awalan di direktori partisi lain memiliki nilai UTF-8 yang kurang dari / karakter (U+002F). Misalnya, karakter spasi (U+0020) yang terjadi antara a dan b masuk s3://bucket/table/p=a b termasuk dalam kategori ini. Perhatikan bahwa ada 14 karakter non-kontrol lainnya:!"#$%&‘()*+,-. Untuk informasi selengkapnya, lihat tabel pengkodean UTF-8 dan karakter Unicode.

    Sebagai solusi untuk masalah ini, atur spark.sql.sources.fastS3PartitionDiscovery.enabled konfigurasi ke false dalam klasifikasi. spark-defaults

5.30.1 versi komponen

Komponen yang diinstal oleh Amazon EMR dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Sedangkan komponen lainnya bersifak unik untuk Amazon EMR dan diinstal untuk proses sistem dan fitur. Ini biasanya dimulai dengan emr atau aws. Paket aplikasi big data dalam rilis Amazon EMR terbaru biasanya versi terbaru yang ditemukan di komunitas. Kami menyediakan rilis komunitas di Amazon EMR secepat mungkin.

Beberapa komponen yang ada di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk CommunityVersion-amzn-EmrVersion. EmrVersion dimulai dari 0. Misalnya, jika komponen komunitas open source bernama myapp-component dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam rilis EMR Amazon yang berbeda, versi rilisnya terdaftar sebagai. 2.2-amzn-2

Komponen Versi Deskripsi
aws-sagemaker-spark-sdk1.3.0Amazon SageMaker Spark SDK
emr-ddb4.14.0Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop.
emr-goodies2.13.0Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop.
emr-kinesis3.5.0Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop.
emr-s3-dist-cp2.14.0Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3.
emr-s3-select1.5.0EMR S3Select Connector
emrfs2.40.0Konektor Amazon S3 untuk aplikasi ekosistem Hadoop.
flink-client1.10.0Skrip dan aplikasi klien baris perintah Apache Flink.
ganglia-monitor3.7.2Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia.
ganglia-metadata-collector3.7.2Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia.
ganglia-web3.7.1Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia.
hadoop-client2.8.5-amzn-6Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'.
hadoop-hdfs-datanode2.8.5-amzn-6Layanan tingkat simpul HDFS untuk menyimpan blok.
hadoop-hdfs-library2.8.5-amzn-6Klien dan perpustakaan baris perintah HDFS
hadoop-hdfs-namenode2.8.5-amzn-6Layanan HDFS untuk melacak nama file dan lokasi blok.
hadoop-hdfs-journalnode2.8.5-amzn-6Layanan HDFS untuk mengelola jurnal filesystem Hadoop pada klaster HA.
hadoop-httpfs-server2.8.5-amzn-6Titik akhir HTTP untuk operasi HDFS.
hadoop-kms-server2.8.5-amzn-6Server manajemen kunci kriptografi berdasarkan API Hadoop. KeyProvider
hadoop-mapred2.8.5-amzn-6MapReduce pustaka mesin eksekusi untuk menjalankan MapReduce aplikasi.
hadoop-yarn-nodemanager2.8.5-amzn-6Layanan YARN untuk mengelola kontainer pada simpul individu.
hadoop-yarn-resourcemanager2.8.5-amzn-6Layanan YARN untuk mengalokasikan dan mengelola sumber daya klaster dan aplikasi terdistribusi.
hadoop-yarn-timeline-server2.8.5-amzn-6Layanan untuk mengambil informasi terkini dan historis untuk aplikasi YARN.
hbase-hmaster1.4.13Layanan untuk HBase cluster yang bertanggung jawab untuk koordinasi Daerah dan pelaksanaan perintah administratif.
hbase-region-server1.4.13Layanan untuk melayani satu atau lebih HBase wilayah.
hbase-client1.4.13HBase klien baris perintah.
hbase-rest-server1.4.13Layanan menyediakan titik akhir RESTful HTTP untuk HBase.
hbase-thrift-server1.4.13Layanan menyediakan titik akhir Thrift ke. HBase
hcatalog-client2.3.6-amzn-2Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server.
hcatalog-server2.3.6-amzn-2Penyediaan layanan HCatalog, tabel dan lapisan manajemen penyimpanan untuk aplikasi terdistribusi.
hcatalog-webhcat-server2.3.6-amzn-2Titik akhir HTTP menyediakan antarmuka REST ke HCatalog.
hive-client2.3.6-amzn-2Klien baris perintah Hive.
hive-hbase2.3.6-amzn-2Klien Hive-hbase.
hive-metastore-server2.3.6-amzn-2Layanan untuk mengakses metastore Hive, repositori semantik yang menyimpan metadata untuk SQL pada operasi Hadoop.
hive-server22.3.6-amzn-2Layanan untuk menerima kueri Hive sebagai permintaan web.
hudi0.5.2-incubatingKerangka kerja pemrosesan tambahan untuk menyalakan alur data pada latensi rendah dan efisiensi tinggi.
hudi-presto0.5.2-incubatingPerpustakaan paket untuk menjalankan Presto dengan Hudi.
hue-server4.6.0Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop
jupyterhub1.1.0Server multi-pengguna untuk notebook Jupyter
livy-server0.7.0-incubatingAntarmuka REST untuk berinteraksi dengan Apache Spark
nginx1.12.1nginx [engine x] adalah server HTTP dan server proksi balik
mahout-client0.13.0Perpustakaan untuk machine learning.
mxnet1.5.1Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning.
mariadb-server5.5.64Server basis data MySQL.
nvidia-cuda9.2.88Driver Nvidia dan kit alat Cuda
oozie-client5.2.0Klien baris perintah Oozie.
oozie-server5.2.0Layanan untuk menerima permintaan alur kerja Oozie.
opencv3.4.0Perpustakaan Visi Komputer Sumber Terbuka.
phoenix-library4.14.3- -1.4 HBasePerpustakaan phoenix untuk server dan klien
phoenix-query-server4.14.3- -1.4 HBaseSebuah server ringan yang menyediakan akses JDBC serta Protocol Buffers dan akses format JSON ke API Avatica
presto-coordinator0,232Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker.
presto-worker0,232Layanan untuk mengeksekusi potongan kueri.
presto-client0,232Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai.
pig-client0.17.0Klien baris perintah Pig.
r3.4.3Proyek R untuk Komputasi Statistik
ranger-kms-server1.2.0Sistem Pengelolaan Kunci Ranger Apache
spark-client2.4.5-amzn-0Klien baris perintah Spark.
spark-history-server2.4.5-amzn-0Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark.
spark-on-yarn2.4.5-amzn-0Mesin eksekusi dalam memori untuk YARN.
spark-yarn-slave2.4.5-amzn-0Perpustakaan Apache Spark yang dibutuhkan oleh slave YARN.
sqoop-client1.4.7Klien baris perintah Apache Sqoop.
tensorflow1.14.0TensorFlow pustaka perangkat lunak open source untuk perhitungan numerik kinerja tinggi.
tez-on-yarn0.9.2Aplikasi dan perpustakaan tez YARN.
webserver2.4.25+Server HTTP Apache.
zeppelin-server0.8.2Notebook berbasis web yang memungkinkan analisis data interaktif.
zookeeper-server3.4.14Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup.
zookeeper-client3.4.14ZooKeeper klien baris perintah.

5.30.1 klasifikasi konfigurasi

Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering kali bersesuaian dengan file XML konfigurasi untuk aplikasi, seperti hive-site.xml. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.

Klasifikasi emr-5.30.1
Klasifikasi Deskripsi

capacity-scheduler

Ubah nilai dalam file capacity-scheduler.xml Hadoop.

container-log4j

Ubah nilai dalam file container-log4j.properties Hadoop YARN.

core-site

Ubah nilai dalam file core-site.xml Hadoop.

emrfs-site

Ubah pengaturan EMRFS.

flink-conf

Ubah pengaturan flink-conf.yaml.

flink-log4j

Ubah pengaturan log4j.properties Flink.

flink-log4j-yarn-session

Ubah pengaturan Flink log4 j-yarn-session .properties.

flink-log4j-cli

Ubah pengaturan log4j-cli.properties Flink.

hadoop-env

Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop.

hadoop-log4j

Ubah nilai dalam file log4j.properties Hadoop ini.

hadoop-ssl-server

Ubah konfigurasi server ssl hadoop

hadoop-ssl-client

Ubah konfigurasi klien ssl hadoop

hbase

Pengaturan Amazon EMR-curated untuk Apache. HBase

hbase-env

Ubah nilai HBase di lingkungan.

hbase-log4j

Ubah nilai dalam file HBase hbase-log4j.properties.

hbase-metrics

Ubah nilai dalam file HBase hadoop-metrics2-hbase.properties.

hbase-policy

Ubah nilai dalam HBase file hbase-policy.xml.

hbase-site

Ubah nilai dalam HBase file hbase-site.xml.

hdfs-encryption-zones

Konfigurasikan zona enkripsi HDFS.

hdfs-site

Ubah nilai dalam hdfs-site.xml HDFS.

hcatalog-env

Ubah nilai HCatalog di lingkungan.

hcatalog-server-jndi

Ubah nilai di HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Ubah nilai HCatalog proto-hive-site dalam.xml's.

hcatalog-webhcat-env

Ubah nilai di lingkungan HCatalog WebHCat.

hcatalog-webhcat-log4j2

Ubah nilai di HCat log4j2.properties HCatalog Web.

hcatalog-webhcat-site

Ubah nilai dalam file webhcat-site.xml HCatalog WebHCat.

hive-beeline-log4j2

Ubah nilai dalam file beeline-log4j2.properties Hive.

hive-parquet-logging

Ubah nilai dalam file parquet-logging.properties Hive.

hive-env

Ubah nilai dalam lingkungan Hive.

hive-exec-log4j2

Ubah nilai dalam file hive-exec-log 4j2.properties Hive.

hive-llap-daemon-log4j2

Ubah nilai dalam file llap-daemon-log 4j2.properties Hive.

hive-log4j2

Ubah nilai dalam file hive-log4j2.properties Hive.

hive-site

Ubah nilai dalam file hive-site.xml Hive

hiveserver2-site

Ubah nilai dalam file hiveserver2-site.xml Hive Server2

hue-ini

Ubah nilai dalam file ini Hue

httpfs-env

Ubah nilai di lingkungan HTTPFS.

httpfs-site

Ubah nilai dalam file httpfs-site.xml Hadoop.

hadoop-kms-acls

Ubah nilai dalam file kms-acls.xml Hadoop.

hadoop-kms-env

Ubah nilai dalam lingkungan Hadoop KMS.

hadoop-kms-log4j

Ubah nilai dalam file kms-log4j.properties Hadoop.

hadoop-kms-site

Ubah nilai dalam file kms-site.xml Hadoop.

hudi-env

Ubah nilai di lingkungan Hudi.

jupyter-notebook-conf

Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook.

jupyter-hub-conf

Ubah nilai dalam JupyterHubs file jupyterhub_config.py.

jupyter-s3-conf

Konfigurasikan persistensi Jupyter Notebook S3.

jupyter-sparkmagic-conf

Ubah nilai dalam file config.json Sparkmagic.

livy-conf

Ubah nilai dalam file livy.conf Livy.

livy-env

Ubah nilai di lingkungan Livy.

livy-log4j

Ubah pengaturan Livy log4j.properties.

mapred-env

Ubah nilai di lingkungan MapReduce aplikasi.

mapred-site

Ubah nilai dalam file mapred-site.xml MapReduce aplikasi.

oozie-env

Ubah nilai di lingkungan Oozie.

oozie-log4j

Ubah nilai dalam file oozie-log4j.properties Oozie.

oozie-site

Ubah nilai dalam file oozie-site.xml Oozie.

phoenix-hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix.

phoenix-hbase-site

Ubah nilai dalam file hbase-site.xml Phoenix.

phoenix-log4j

Ubah nilai dalam file log4j.properties Phoenix.

phoenix-metrics

Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix.

pig-env

Ubah nilai di lingkungan Pig.

pig-properties

Ubah nilai dalam file pig.properties Pig.

pig-log4j

Ubah nilai dalam file log4j.properties Pig.

presto-log

Ubah nilai dalam file log.properties Presto.

presto-config

Ubah nilai dalam file config.properties Presto.

presto-password-authenticator

Ubah nilai dalam file password-authenticator.properties Presto.

presto-env

Ubah nilai dalam file presto-env.sh Presto.

presto-node

Ubah nilai dalam file node.properties Presto.

presto-connector-blackhole

Ubah nilai dalam file blackhole.properties Presto.

presto-connector-cassandra

Ubah nilai dalam file cassandra.properties Presto.

presto-connector-hive

Ubah nilai dalam file hive.properties Presto.

presto-connector-jmx

Ubah nilai dalam file jmx.properties Presto.

presto-connector-kafka

Ubah nilai dalam file kafka.properties Presto.

presto-connector-localfile

Ubah nilai dalam file localfile.properties Presto.

presto-connector-memory

Ubah nilai dalam file memory.properties Presto.

presto-connector-mongodb

Ubah nilai dalam file mongodb.properties Presto.

presto-connector-mysql

Ubah nilai dalam file mysql.properties Presto.

presto-connector-postgresql

Ubah nilai dalam file postgresql.properties Presto.

presto-connector-raptor

Ubah nilai dalam file raptor.properties Presto.

presto-connector-redis

Ubah nilai dalam file redis.properties Presto.

presto-connector-redshift

Ubah nilai dalam file redshift.properties Presto.

presto-connector-tpch

Ubah nilai dalam file tpch.properties Presto.

presto-connector-tpcds

Ubah nilai dalam file tpcds.properties Presto.

ranger-kms-dbks-site

Ubah nilai dalam file dbks-site.xml Ranger KMS.

ranger-kms-site

Ubah nilai dalam ranger-kms-site file.xml. dari Ranger KMS.

ranger-kms-env

Ubah nilai di lingkungan Ranger KMS.

ranger-kms-log4j

Ubah nilai dalam file kms-log4j.properties Ranger KMS.

ranger-kms-db-ca

Ubah nilai untuk file CA pada S3 untuk koneksi MySQL SSL dengan Ranger KMS.

recordserver-env

Ubah nilai di lingkungan EMR RecordServer .

recordserver-conf

Ubah nilai dalam file erver.properties EMR RecordServer.

recordserver-log4j

Ubah nilai dalam file log4j.properties EMR RecordServer.

spark

Pengaturan terkurasi Amazon EMR untuk Apache Spark.

spark-defaults

Ubah nilai dalam file spark-defaults.conf Spark.

spark-env

Ubah nilai di lingkungan Spark.

spark-hive-site

Ubah nilai dalam file hive-site.xml Spark

spark-log4j

Ubah nilai dalam file log4j.properties Spark.

spark-metrics

Ubah nilai dalam file metrics.properties Spark.

sqoop-env

Ubah nilai dalam lingkungan Sqoop.

sqoop-oraoop-site

Ubah nilai dalam file oraoop-site.xml Sqoop OraOop ini.

sqoop-site

Ubah nilai dalam file sqoop-site.xml Sqoop.

tez-site

Ubah nilai dalam file tez-site.xml Tez.

yarn-env

Ubah nilai di lingkungan YARN.

yarn-site

Ubah nilai dalam file yarn-site.xml YARN.

zeppelin-env

Ubah nilai di lingkungan Zeppelin.

zookeeper-config

Ubah nilai dalam ZooKeeper file zoo.cfg.

zookeeper-log4j

Ubah nilai dalam file ZooKeeper log4j.properties.

Topik berikutnya:

emr-5.30.0

Topik sebelumnya:

emr-5.30.2
PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.