Amazon EMR merilis 6.0.0 - Amazon EMR

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Amazon EMR merilis 6.0.0

versi aplikasi 6.0.0

Aplikasi berikut didukung dalam rilis ini: Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Oozie, Phoenix, Presto, Spark, TensorFlow, Tez, Zeppelin, dan ZooKeeper.

Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon ini EMR dan versi aplikasi di tiga EMR rilis Amazon sebelumnya (bila berlaku).

Untuk riwayat lengkap versi aplikasi untuk setiap rilis AmazonEMR, lihat topik berikut:

Informasi versi aplikasi
emr-6.1.1 emr-6.1.0 emr-6.0.1 emr-6.0.0
AWS SDK untuk Java 1.11.8281.11.8281.11.7111.11.711
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Skala 2.12.102.12.102.12.102.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.01.11.0 - -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.52.2.52.2.32.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-10.5.0-incubating-amzn-1
Hue4.7.14.7.14.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.0.01.0.0
Livy0.7.00.7.00.6.00.6.0
MXNet1.6.01.6.01.5.11.5.1
Mahout - - - -
Oozie5.2.05.2.05.1.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.0 - -
Presto0,2320,2320,2300,230
Spark3.0.03.0.02.4.42.4.4
Sqoop1.4.71.4.7 - -
TensorFlow2.1.02.1.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)338338 - -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

catatan rilis 6.0.0

Catatan rilis berikut mencakup informasi untuk EMR rilis Amazon 6.0.0.

Tanggal rilis awal: 10 Maret 2020

Aplikasi-aplikasi yang didukung
  • AWS SDK for Java versi 1.11.711

  • Ganglia versi 3.7.2

  • Hadoop versi 3.2.1

  • HBaseversi 2.2.3

  • HCatalogversi 3.1.2

  • Hive versi 3.1.2

  • Hudi versi 0.5.0-incubating

  • Hue versi 4.4.0

  • JupyterHub versi 1.0.0

  • Livy versi 0.6.0

  • MXNetversi 1.5.1

  • Oozie versi 5.1.0

  • Phoenix versi 5.0.0

  • Presto versi 0.230

  • Spark versi 2.4.4

  • TensorFlow versi 1.14.0

  • Zeppelin versi 0.9.0- SNAPSHOT

  • Zookeeper versi 3.4.14

  • Konektor dan driver: DynamoDB Connector 4.14.0

catatan

Flink, Sqoop, Pig, dan Mahout tidak tersedia di Amazon versi 6.0.0. EMR

Fitur baru
  • YARNDocker Runtime Support - YARN aplikasi, seperti pekerjaan Spark, sekarang dapat berjalan dalam konteks wadah Docker. Ini memungkinkan Anda untuk dengan mudah menentukan dependensi dalam gambar Docker tanpa perlu menginstal pustaka khusus di cluster Amazon Anda. EMR Untuk informasi selengkapnya, lihat Mengonfigurasi Integrasi Docker dan Menjalankan aplikasi Spark dengan Docker menggunakan Amazon 6.0.0. EMR

  • Hive LLAP Support - Hive sekarang mendukung mode LLAP eksekusi untuk meningkatkan kinerja kueri. Untuk informasi selengkapnya, lihat Menggunakan Sarang LLAP.

Perubahan, penyempurnaan, dan masalah yang diselesaikan
  • Ini adalah rilis untuk memperbaiki masalah dengan Amazon EMR Scaling ketika gagal meningkatkan/menurunkan klaster dengan sukses atau menyebabkan kegagalan aplikasi.

  • Memperbaiki masalah saat permintaan penskalaan gagal untuk klaster besar yang sangat dimanfaatkan saat daemon EMR on-cluster Amazon menjalankan aktivitas pemeriksaan kesehatan, seperti mengumpulkan status node dan status YARN node. HDFS Ini terjadi karena daemon on-cluster tidak dapat mengkomunikasikan data status kesehatan node ke komponen Amazon internal. EMR

  • Peningkatan daemon EMR on-cluster untuk melacak status node dengan benar saat alamat IP digunakan kembali untuk meningkatkan keandalan selama operasi penskalaan.

  • SPARK-29683. Memperbaiki masalah di mana kegagalan pekerjaan terjadi selama penskalaan klaster karena Spark mengasumsikan semua node yang tersedia tidak terdaftar.

  • YARN-9011. Memperbaiki masalah di mana kegagalan pekerjaan terjadi karena kondisi balapan dalam YARN penonaktifan saat klaster mencoba menaikkan atau menurunkan skala.

  • Memperbaiki masalah dengan kegagalan langkah atau pekerjaan selama penskalaan klaster dengan memastikan bahwa status node selalu konsisten antara EMR daemon on-cluster Amazon dan/. YARN HDFS

  • Memperbaiki masalah saat operasi klaster seperti pengurangan skala dan pengiriman langkah gagal untuk EMR kluster Amazon yang diaktifkan dengan autentikasi Kerberos. Ini karena EMR daemon on-cluster Amazon tidak memperbarui tiket Kerberos, yang diperlukan untuk berkomunikasi dengan HDFS aman dengan/berjalan di node utama. YARN

  • EMRRilis Amazon yang lebih baru memperbaiki masalah dengan batas “Max open files” yang lebih rendah pada yang lebih lama AL2 di AmazonEMR. Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru sekarang menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi.

  • Amazon Linux

    • Amazon Linux 2 adalah sistem operasi untuk seri rilis EMR 6.x.

    • systemddigunakan untuk manajemen layanan alih-alih upstart menggunakan inAmazon Linux 1.

  • Kit Pengembangan Java (JDK)

    • JDKCorretto 8 adalah JDK default untuk seri rilis 6.xEMR.

  • Scala

    • Scala 2.12 digunakan dengan Apache Spark dan Apache Livy.

  • Python 3

    • Python 3 sekarang menjadi versi default Python di. EMR

  • YARNlabel simpul

    • Dimulai dengan seri rilis Amazon EMR 6.x, fitur label YARN node dinonaktifkan secara default. Proses utama aplikasi dapat berjalan pada kedua inti dan tugas simpul secara default. Anda dapat mengaktifkan fitur label YARN node dengan mengonfigurasi properti berikut: yarn.node-labels.enabled danyarn.node-labels.am.default-node-label-expression. Untuk informasi selengkapnya, lihat Memahami Node Primer, Inti, dan Tugas.

Masalah yang diketahui
  • Turunkan batas “Maks open files” pada yang lebih lama AL2 [diperbaiki dalam rilis yang lebih baru]. EMRRilis Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, dan emr-6.2.0 didasarkan pada versi lama Linux ofAmazon 2 ()AL2, yang memiliki pengaturan ulimit yang lebih rendah untuk “File terbuka maksimum” ketika cluster Amazon dibuat dengan default. EMR AMI Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi. Rilis dengan batas file terbuka yang lebih rendah menyebabkan kesalahan “Terlalu banyak file terbuka” saat mengirimkan pekerjaan Spark. Dalam rilis yang terkena dampak, EMR default Amazon AMI memiliki pengaturan ulimit default 4096 untuk “File terbuka maksimum,” yang lebih rendah dari batas file 65536 di Linux 2. latestAmazon AMI Pengaturan ulimit yang lebih rendah untuk "Maksimal file terbuka" menyebabkan kegagalan tugas Spark ketika driver dan pelaksana mencoba untuk membuka lebih dari 4096 file. Untuk memperbaiki masalah ini, Amazon EMR memiliki skrip bootstrap action (BA) yang menyesuaikan pengaturan ulimit pada pembuatan cluster.

    Jika Anda menggunakan EMR versi Amazon lama yang tidak memiliki perbaikan permanen untuk masalah ini, solusi berikut memungkinkan Anda untuk secara eksplisit menyetel ulimit pengontrol instans ke maksimum 65536 file.

    Mengatur secara eksplisit ulimit dari baris perintah
    1. Edit /etc/systemd/system/instance-controller.service untuk menambahkan parameter berikut ke bagian Layanan.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Mulai ulang InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Tetapkan ulimit menggunakan tindakan bootstrap (BA)

    Anda juga dapat menggunakan skrip tindakan bootstrap (BA) untuk mengkonfigurasi ulimit instans-pengendali menjadi 65536 file saat pembuatan klaster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Spark interaktif shell, termasuk PySpark, SparkR, dan spark-shell, tidak mendukung penggunaan Docker dengan pustaka tambahan.

  • Untuk menggunakan Python 3 dengan Amazon EMR versi 6.0.0, Anda harus menambahkan ke. PATH yarn.nodemanager.env-whitelist

  • Fungsionalitas Live Long and Process (LLAP) tidak didukung saat Anda menggunakan Katalog Data AWS Glue sebagai metastore untuk Hive.

  • Saat menggunakan Amazon EMR 6.0.0 dengan integrasi Spark dan Docker, Anda perlu mengonfigurasi instance di klaster dengan jenis instans yang sama dan jumlah EBS volume yang sama untuk menghindari kegagalan saat mengirimkan pekerjaan Spark dengan runtime Docker.

  • Di Amazon EMR 6.0.0, HBase pada mode penyimpanan Amazon S3 dipengaruhi oleh HBASE masalah -24286. HBasemaster tidak dapat menginisialisasi saat cluster dibuat menggunakan data S3 yang ada.

  • Masalah yang diketahui dalam cluster dengan beberapa node primer dan otentikasi Kerberos

    Jika Anda menjalankan cluster dengan beberapa node utama dan otentikasi Kerberos di EMR Amazon rilis 5.20.0 dan yang lebih baru, Anda mungkin mengalami masalah dengan operasi klaster seperti penurunan skala atau pengiriman langkah, setelah klaster berjalan selama beberapa waktu. Periode waktunya tergantung pada masa validitas tiket Kerberos yang Anda tetapkan. Masalah menurunkan skala akan berdampak pada permintaan menurunkan skala otomatis dan permintaan menurunkan skala eksplisit yang Anda kirimkan. Operasi klaster tambahan juga dapat terkena dampak.

    Pemecahan masalah:

    • SSHsebagai hadoop pengguna ke node utama utama EMR cluster dengan beberapa node primer.

    • Jalankan perintah berikut untuk memperbarui tiket Kerberos untuk pengguna hadoop.

      kinit -kt <keytab_file> <principal>

      Biasanya, fail keytab terletak di /etc/hadoop.keytab dan file utama-nya dalam bentuk hadoop/<hostname>@<REALM>.

    catatan

    Pemecahan masalah ini akan efektif untuk jangka waktu selama tiket Kerberos berlaku. Durasi ini adalah 10 jam secara default, tetapi dapat dikonfigurasi dengan pengaturan Kerberos Anda. Anda harus menjalankan kembali perintah di atas setelah tiket Kerberos berakhir.

versi komponen 6.0.0

Komponen yang EMR diinstal Amazon dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Lainnya unik untuk Amazon EMR dan diinstal untuk proses dan fitur sistem. Ini biasanya dimulai dengan emr atau aws. Paket aplikasi data besar dalam EMR rilis Amazon terbaru biasanya merupakan versi terbaru yang ditemukan di komunitas. Kami membuat rilis komunitas tersedia di Amazon EMR secepat mungkin.

Beberapa komponen di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk CommunityVersion-amzn-EmrVersion. EmrVersion dimulai dari 0. Misalnya, jika komponen komunitas open source bernama myapp-component dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam EMR rilis Amazon yang berbeda, versi rilisnya terdaftar sebagai2.2-amzn-2.

Komponen Versi Deskripsi
aws-sagemaker-spark-sdk1.2.6Amazon SageMaker Spark SDK
emr-ddb4.14.0Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop.
emr-goodies3.0.0Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop.
emr-kinesis3.5.0Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop.
emr-s3-dist-cp2.14.0Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3.
emr-s3-select1.5.0EMRKonektor S3Select
emrfs2.39.0Konektor Amazon S3 untuk aplikasi ekosistem Hadoop.
ganglia-monitor3.7.2Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia.
ganglia-metadata-collector3.7.2Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia.
ganglia-web3.7.1Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia.
hadoop-client3.2.1-amzn-0Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'.
hadoop-hdfs-datanode3.2.1-amzn-0HDFSlayanan tingkat simpul untuk menyimpan blok.
hadoop-hdfs-library3.2.1-amzn-0HDFSklien baris perintah dan pustaka
hadoop-hdfs-namenode3.2.1-amzn-0HDFSlayanan untuk melacak nama file dan lokasi blok.
hadoop-hdfs-journalnode3.2.1-amzn-0HDFSlayanan untuk mengelola jurnal filesystem Hadoop pada klaster HA.
hadoop-httpfs-server3.2.1-amzn-0HTTPtitik akhir untuk HDFS operasi.
hadoop-kms-server3.2.1-amzn-0Server manajemen kunci kriptografi berdasarkan Hadoop. KeyProvider API
hadoop-mapred3.2.1-amzn-0MapReduce pustaka mesin eksekusi untuk menjalankan MapReduce aplikasi.
hadoop-yarn-nodemanager3.2.1-amzn-0YARNlayanan untuk mengelola kontainer pada node individu.
hadoop-yarn-resourcemanager3.2.1-amzn-0YARNlayanan untuk mengalokasikan dan mengelola sumber daya cluster dan aplikasi terdistribusi.
hadoop-yarn-timeline-server3.2.1-amzn-0Layanan untuk mengambil informasi terkini dan historis untuk YARN aplikasi.
hbase-hmaster2.2.3Layanan untuk HBase cluster yang bertanggung jawab untuk koordinasi Daerah dan pelaksanaan perintah administratif.
hbase-region-server2.2.3Layanan untuk melayani satu atau lebih HBase wilayah.
hbase-client2.2.3HBaseklien baris perintah.
hbase-rest-server2.2.3Layanan menyediakan RESTful HTTP titik akhir untukHBase.
hbase-thrift-server2.2.3Layanan menyediakan titik akhir Thrift ke. HBase
hcatalog-client3.1.2-amzn-0Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server.
hcatalog-server3.1.2-amzn-0Penyediaan layananHCatalog, tabel dan lapisan manajemen penyimpanan untuk aplikasi terdistribusi.
hcatalog-webhcat-server3.1.2-amzn-0HTTPendpoint menyediakan REST antarmuka keHCatalog.
hive-client3.1.2-amzn-0Klien baris perintah Hive.
hive-hbase3.1.2-amzn-0Klien Hive-hbase.
hive-metastore-server3.1.2-amzn-0Layanan untuk mengakses metastore Hive, repositori semantik menyimpan metadata untuk operasi Hadoop. SQL
hive-server23.1.2-amzn-0Layanan untuk menerima kueri Hive sebagai permintaan web.
hudi0.5.0-incubating-amzn-1Kerangka kerja pemrosesan tambahan untuk menyalakan alur data pada latensi rendah dan efisiensi tinggi.
hudi-presto0.5.0-incubating-amzn-1Perpustakaan paket untuk menjalankan Presto dengan Hudi.
hue-server4.4.0Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop
jupyterhub1.0.0Server multi-pengguna untuk notebook Jupyter
livy-server0.6.0-incubatingRESTantarmuka untuk berinteraksi dengan Apache Spark
nginx1.12.1nginx [engine x] adalah server proxy HTTP terbalik
mxnet1.5.1Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning.
mariadb-server5.5.64+Server basis data MariaDB.
nvidia-cuda9.2.88Driver Nvidia dan kit alat Cuda
oozie-client5.1.0Klien baris perintah Oozie.
oozie-server5.1.0Layanan untuk menerima permintaan alur kerja Oozie.
opencv3.4.0Perpustakaan Visi Komputer Sumber Terbuka.
phoenix-library5.0.0- -2.0 HBasePerpustakaan phoenix untuk server dan klien
phoenix-query-server5.0.0- -2.0 HBaseServer ringan yang menyediakan JDBC akses serta Protocol Buffer dan akses JSON format ke Avatica API
presto-coordinator0,230Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker.
presto-worker0,230Layanan untuk mengeksekusi potongan kueri.
presto-client0,230Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai.
r3.4.3Proyek R untuk Komputasi Statistik
spark-client2.4.4Klien baris perintah Spark.
spark-history-server2.4.4Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark.
spark-on-yarn2.4.4Mesin eksekusi dalam memori untukYARN.
spark-yarn-slave2.4.4Perpustakaan Apache Spark dibutuhkan oleh budak. YARN
tensorflow1.14.0TensorFlow pustaka perangkat lunak open source untuk perhitungan numerik kinerja tinggi.
tez-on-yarn0.9.2YARNAplikasi tez dan perpustakaan.
webserver2.4.41+HTTPServer Apache.
zeppelin-server0.9.0- SNAPSHOTNotebook berbasis web yang memungkinkan analisis data interaktif.
zookeeper-server3.4.14Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup.
zookeeper-client3.4.14ZooKeeper klien baris perintah.

klasifikasi konfigurasi 6.0.0

Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering sesuai dengan XML file konfigurasi untuk aplikasi, sepertihive-site.xml. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.

klasifikasi emr-6.0.0
Klasifikasi Deskripsi

capacity-scheduler

Ubah nilai dalam file capacity-scheduler.xml Hadoop.

container-executor

Ubah nilai dalam file container-executor.cfg YARN Hadoop.

container-log4j

Ubah nilai dalam file container-log4j.properties YARN Hadoop.

core-site

Ubah nilai dalam file core-site.xml Hadoop.

emrfs-site

Ubah EMRFS pengaturan.

hadoop-env

Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop.

hadoop-log4j

Ubah nilai dalam file log4j.properties Hadoop ini.

hadoop-ssl-server

Ubah konfigurasi server ssl hadoop

hadoop-ssl-client

Ubah konfigurasi klien ssl hadoop

hbase

Pengaturan EMR yang dikurasi Amazon untuk Apache. HBase

hbase-env

Ubah nilai HBase di lingkungan.

hbase-log4j

Ubah nilai dalam file HBase hbase-log4j.properties.

hbase-metrics

Ubah nilai dalam file HBase hadoop-metrics2-hbase.properties.

hbase-policy

Ubah nilai dalam HBase file hbase-policy.xml.

hbase-site

Ubah nilai dalam HBase file hbase-site.xml.

hdfs-encryption-zones

Konfigurasikan zona HDFS enkripsi.

hdfs-env

Ubah nilai di HDFS lingkungan.

hdfs-site

Ubah nilai dalam HDFS hdfs-site.xml.

hcatalog-env

Ubah nilai HCatalog di lingkungan.

hcatalog-server-jndi

Ubah nilai di HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Ubah nilai HCatalog proto-hive-site dalam.xml's.

hcatalog-webhcat-env

Ubah nilai di lingkungan HCatalog WebHCat.

hcatalog-webhcat-log4j2

Ubah nilai di ebHCat log4j2.properties HCatalog W.

hcatalog-webhcat-site

Ubah nilai dalam file webhcat-site.xml HCatalog WebHCat.

hive

Pengaturan EMR yang dikurasi Amazon untuk Apache Hive.

hive-beeline-log4j2

Ubah nilai dalam file beeline-log4j2.properties Hive.

hive-parquet-logging

Ubah nilai dalam file parquet-logging.properties Hive.

hive-env

Ubah nilai dalam lingkungan Hive.

hive-exec-log4j2

Ubah nilai dalam file hive-exec-log 4j2.properties Hive.

hive-llap-daemon-log4j2

Ubah nilai dalam file llap-daemon-log 4j2.properties Hive.

hive-log4j2

Ubah nilai dalam file hive-log4j2.properties Hive.

hive-site

Ubah nilai dalam file hive-site.xml Hive

hiveserver2-site

Ubah nilai dalam file hiveserver2-site.xml Hive Server2

hue-ini

Ubah nilai dalam file ini Hue

httpfs-env

Ubah nilai di HTTPFS lingkungan.

httpfs-site

Ubah nilai dalam file httpfs-site.xml Hadoop.

hadoop-kms-acls

Ubah nilai dalam file kms-acls.xml Hadoop.

hadoop-kms-env

Ubah nilai di lingkungan HadoopKMS.

hadoop-kms-log4j

Ubah nilai dalam file kms-log4j.properties Hadoop.

hadoop-kms-site

Ubah nilai dalam file kms-site.xml Hadoop.

jupyter-notebook-conf

Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook.

jupyter-hub-conf

Ubah nilai dalam JupyterHubs file jupyterhub_config.py.

jupyter-s3-conf

Konfigurasikan persistensi Jupyter Notebook S3.

jupyter-sparkmagic-conf

Ubah nilai dalam file config.json Sparkmagic.

livy-conf

Ubah nilai dalam file livy.conf Livy.

livy-env

Ubah nilai di lingkungan Livy.

livy-log4j

Ubah pengaturan Livy log4j.properties.

mapred-env

Ubah nilai di lingkungan MapReduce aplikasi.

mapred-site

Ubah nilai dalam file mapred-site.xml MapReduce aplikasi.

oozie-env

Ubah nilai di lingkungan Oozie.

oozie-log4j

Ubah nilai dalam file oozie-log4j.properties Oozie.

oozie-site

Ubah nilai dalam file oozie-site.xml Oozie.

phoenix-hbase-metrics

Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix.

phoenix-hbase-site

Ubah nilai dalam file hbase-site.xml Phoenix.

phoenix-log4j

Ubah nilai dalam file log4j.properties Phoenix.

phoenix-metrics

Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix.

presto-log

Ubah nilai dalam file log.properties Presto.

presto-config

Ubah nilai dalam file config.properties Presto.

presto-password-authenticator

Ubah nilai dalam file password-authenticator.properties Presto.

presto-env

Ubah nilai dalam file presto-env.sh Presto.

presto-node

Ubah nilai dalam file node.properties Presto.

presto-connector-blackhole

Ubah nilai dalam file blackhole.properties Presto.

presto-connector-cassandra

Ubah nilai dalam file cassandra.properties Presto.

presto-connector-hive

Ubah nilai dalam file hive.properties Presto.

presto-connector-jmx

Ubah nilai dalam file jmx.properties Presto.

presto-connector-kafka

Ubah nilai dalam file kafka.properties Presto.

presto-connector-localfile

Ubah nilai dalam file localfile.properties Presto.

presto-connector-memory

Ubah nilai dalam file memory.properties Presto.

presto-connector-mongodb

Ubah nilai dalam file mongodb.properties Presto.

presto-connector-mysql

Ubah nilai dalam file mysql.properties Presto.

presto-connector-postgresql

Ubah nilai dalam file postgresql.properties Presto.

presto-connector-raptor

Ubah nilai dalam file raptor.properties Presto.

presto-connector-redis

Ubah nilai dalam file redis.properties Presto.

presto-connector-redshift

Ubah nilai dalam file redshift.properties Presto.

presto-connector-tpch

Ubah nilai dalam file tpch.properties Presto.

presto-connector-tpcds

Ubah nilai dalam file tpcds.properties Presto.

ranger-kms-dbks-site

Ubah nilai dalam file dbks-site.xml dari Ranger. KMS

ranger-kms-site

Ubah nilai dalam ranger-kms-site file.xml.Ranger. KMS

ranger-kms-env

Ubah nilai di KMS lingkungan Ranger.

ranger-kms-log4j

Ubah nilai dalam file kms-log4j.properties dari Ranger. KMS

ranger-kms-db-ca

Ubah nilai untuk file CA di S3 untuk SQL SSL koneksi Saya dengan RangerKMS.

recordserver-env

Ubah nilai di EMR RecordServer lingkungan.

recordserver-conf

Ubah nilai dalam EMR RecordServer file erver.properties.

recordserver-log4j

Ubah nilai dalam file EMR RecordServer log4j.properties.

spark

Pengaturan EMR yang dikurasi Amazon untuk Apache Spark.

spark-defaults

Ubah nilai dalam file spark-defaults.conf Spark.

spark-env

Ubah nilai di lingkungan Spark.

spark-hive-site

Ubah nilai dalam file hive-site.xml Spark

spark-log4j

Ubah nilai dalam file log4j.properties Spark.

spark-metrics

Ubah nilai dalam file metrics.properties Spark.

tez-site

Ubah nilai dalam file tez-site.xml Tez.

yarn-env

Ubah nilai di YARN lingkungan.

yarn-site

Ubah nilai dalam YARN file yarn-site.xml.

zeppelin-env

Ubah nilai di lingkungan Zeppelin.

zookeeper-config

Ubah nilai dalam ZooKeeper file zoo.cfg.

zookeeper-log4j

Ubah nilai dalam file ZooKeeper log4j.properties.