아마존 EMR 릴리스 5.22.0 - 아마존 EMR

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

아마존 EMR 릴리스 5.22.0

5.22.0 애플리케이션 버전

이 릴리스에서 지원되는 애플리케이션은 Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin, ZooKeeper입니다.

아래 표에는 이번 Amazon EMR 릴리스에서 사용 가능한 애플리케이션 EMR 버전과 이전 세 개의 Amazon 릴리스 (해당하는 경우) 의 애플리케이션 버전이 나열되어 있습니다.

각 Amazon EMR 릴리스의 애플리케이션 버전에 대한 포괄적인 내역은 다음 주제를 참조하십시오.

애플리케이션 버전 정보
emr-5.22.0 emr-5.21.2 emr-5.21.1 emr-5.21.0
AWS SDKJava의 경우 1.11.5101.11.4791.11.4791.11.479
Python 2.7, 3.62.7, 3.62.7, 3.62.7, 3.6
Scala 2.11.122.11.122.11.122.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.7.11.7.01.7.01.7.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.91.4.81.4.81.4.8
HCatalog2.3.42.3.42.3.42.3.4
Hadoop2.8.52.8.52.8.52.8.5
Hive2.3.42.3.42.3.42.3.4
Hudi - - - -
Hue4.3.04.3.04.3.04.3.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub0.9.40.9.40.9.40.9.4
Livy0.5.00.5.00.5.00.5.0
MXNet1.3.11.3.11.3.11.3.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.1.05.0.05.0.05.0.0
Phoenix4.14.14.14.04.14.04.14.0
Pig0.17.00.17.00.17.00.17.0
Presto0.2150.2150.2150.215
Spark2.4.02.4.02.4.02.4.0
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.12.01.12.01.12.01.12.0
Tez0.9.10.9.10.9.10.9.1
Trino (PrestoSQL) - - - -
Zeppelin0.8.10.8.00.8.00.8.0
ZooKeeper3.4.133.4.133.4.133.4.13

5.22.0 릴리스 정보

다음 릴리스 노트에는 Amazon EMR 릴리스 5.22.0에 대한 정보가 포함되어 있습니다. 변경 사항은 5.21.0에 관련됩니다.

중요

Amazon EMR 릴리스 5.22.0부터 EMR Amazon은 AWS 서명 버전 4를 독점적으로 사용하여 Amazon S3에 대한 요청을 인증합니다. 이전 Amazon EMR 릴리스에서는 경우에 따라 AWS 서명 버전 2를 사용합니다. 단, 릴리스 노트에 서명 버전 4만 사용한다고 명시되어 있는 경우는 예외입니다. 자세한 내용은 Amazon Simple Storage Service 개발자 안내서의 요청 인증 (AWSAWS 서명 버전 4) 및 요청 인증 (서명 버전 2) 을 참조하십시오.

최초 릴리스 날짜: 2019년 3월 20일

업그레이드
  • Flink 1.7.1

  • HBase1.4.9

  • Oozie 5.1.0

  • Phoenix 4.14.1

  • Zeppelin 0.8.1

  • 커넥터 및 드라이버:

    • DynamoDB 커넥터 4.8.0

    • MariaDB Connector 2.2.6

    • 아마존 레드시프트 JDBC 드라이버 1.2.20.1043

새로운 기능
  • 스토리지만 있는 EC2 인스턴스 유형의 기본 EBS 구성을 수정했습니다. EBS Amazon EMR 릴리스 5.22.0 이상을 사용하여 클러스터를 생성하는 경우 기본 EBS 스토리지 용량은 인스턴스 크기에 따라 증가합니다. 또한 증가된 스토리지를 여러 볼륨으로 분할하여 성능을 IOPS 향상시켰습니다. 다른 EBS 인스턴스 스토리지 구성을 사용하려는 경우 클러스터를 생성하거나 기존 EMR 클러스터에 노드를 추가할 때 해당 구성을 지정할 수 있습니다. 각 인스턴스 유형에 기본적으로 할당되는 스토리지 양과 볼륨 수에 대한 자세한 내용은 Amazon EMR Management Guide의 인스턴스용 기본 EBS 스토리지를 참조하십시오.

변경 사항, 향상된 기능 및 해결된 문제
  • Spark

    • Spark YARN on의 새로운 구성 속성을 도입했습니다. spark.yarn.executor.memoryOverheadFactor 이 속성의 값은 최소 384MB의 메모리 오버헤드 값을 실행기 메모리의 백분율로 설정하는 확장 팩터입니다. 메모리 오버헤드가 spark.yarn.executor.memoryOverhead를 사용하여 명시적으로 설정된 경우 이 속성은 아무 효과가 없습니다. 기본값은 18.75%를 나타내는 0.1875입니다. Amazon의 이 기본값은 Spark에서 내부적으로 설정한 10% 기본값보다 실행기 메모리 오버헤드를 위해 YARN 컨테이너에 더 많은 공간을 EMR 남깁니다. Amazon EMR 기본값인 18.75% 는 경험적으로 -DS 벤치마크에서 메모리 관련 오류가 더 적은 것으로 나타났습니다. TPC

    • SPARK-26316을 백포트하여 성능을 개선했습니다.

  • Amazon EMR 버전 5.19.0, 5.20.0 및 5.21.0에서는 YARN 노드 레이블이 디렉터리에 저장됩니다. HDFS 이로 인해 경우에 따라 코어 노드 시작이 지연되어 클러스터가 시간 초과되고 시작이 실패할 수 있습니다. Amazon EMR 5.22.0부터 이 문제가 해결되었습니다. YARN노드 레이블은 각 클러스터 노드의 로컬 디스크에 저장되므로 종속성을 피할 수 있습니다. HDFS

알려진 문제
  • 색조 (아마존 EMR 릴리스 5.24.0에서 수정됨)

    • Amazon에서 실행되는 Hue는 Solr을 EMR 지원하지 않습니다. Amazon EMR 릴리스 5.20.0부터 잘못된 구성 문제로 인해 Solr이 활성화되고 무해한 오류 메시지가 다음과 비슷하게 표시됩니다.

      Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))

      Solr 오류 메시지를 표시하지 않으려면

      1. 를 사용하여 주 노드 명령줄에 연결합니다SSH.

      2. 텍스트 편집기를 사용하여 hue.ini 파일을 엽니다. 예:

        sudo vim /etc/hue/conf/hue.ini

      3. appblacklist라는 단어를 검색하고 해당 줄을 다음과 같이 수정합니다.

        appblacklist = search
      4. 변경 내용을 저장하고 다음 예와 같이 Hue를 다시 시작합니다.

        sudo stop hue; sudo start hue
  • 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

    Amazon EMR 릴리스 5.20.0 이상에서 여러 기본 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 기간 실행한 후 규모 축소 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

    해결 방법:

    • SSH여러 기본 노드가 있는 EMR 클러스터의 주요 기본 노드의 hadoop 사용자입니다.

    • 다음 명령을 실행하여 hadoop 사용자의 Kerberos 티켓을 갱신합니다.

      kinit -kt <keytab_file> <principal>

      일반적으로 keytab 파일은 /etc/hadoop.keytab에 있으며, 보안 주체는 hadoop/<hostname>@<REALM> 양식입니다.

    참고

    이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

5.22.0 구성 요소 버전

Amazon이 이번 EMR 릴리스와 함께 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 다른 것들은 Amazon에서만 EMR 사용되며 시스템 프로세스 및 기능용으로 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 가장 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 찾을 수 있는 최신 버전입니다. Amazon에서는 가능한 한 EMR 빨리 커뮤니티 릴리스를 제공합니다.

Amazon의 일부 구성 요소는 커뮤니티 EMR 버전과 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어 버전 2.2로 이름이 지정된 myapp-component 오픈 소스 커뮤니티 구성 요소가 여러 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 릴리스 버전은 로 2.2-amzn-2 나열됩니다.

구성 요소 버전 설명
aws-sagemaker-spark-sdk1.2.1아마존 SageMaker 스파크 SDK
emr-ddb4.8.0하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies2.6.0편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis3.4.0하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-s3-dist-cp2.11.0Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select1.2.0EMRS3 셀렉트 커넥터
emrfs2.31.0하둡 에코시스템 애플리케이션용 Amazon S3 커넥터.
flink-client1.7.1Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션
ganglia-monitor3.7.2하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector3.7.2Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web3.7.1Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client2.8.5-amzn-2'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode2.8.5-amzn-2HDFS블록 저장을 위한 노드 수준 서비스.
hadoop-hdfs-library2.8.5-amzn-2HDFS명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode2.8.5-amzn-2HDFS파일 이름 및 블록 위치를 추적하는 서비스.
hadoop-httpfs-server2.8.5-amzn-2HTTPHDFS작업을 위한 엔드포인트.
hadoop-kms-server2.8.5-amzn-2하둡 기반 암호화 키 관리 서버. KeyProvider API
hadoop-mapred2.8.5-amzn-2MapReduce 애플리케이션을 실행하기 위한 실행 엔진 라이브러리. MapReduce
hadoop-yarn-nodemanager2.8.5-amzn-2YARN개별 노드의 컨테이너를 관리하는 서비스입니다.
hadoop-yarn-resourcemanager2.8.5-amzn-2YARN클러스터 리소스 및 분산 애플리케이션을 할당하고 관리하기 위한 서비스입니다.
hadoop-yarn-timeline-server2.8.5-amzn-2응용 프로그램의 현재 및 과거 정보를 검색하는 YARN 서비스입니다.
hbase-hmaster1.4.9지역 조정 및 관리 명령 실행을 담당하는 HBase 클러스터를 위한 서비스입니다.
hbase-region-server1.4.9하나 이상의 HBase 지역에 서비스를 제공하는 서비스.
hbase-client1.4.9HBase명령줄 클라이언트.
hbase-rest-server1.4.9RESTfulHTTP엔드포인트를 제공하는 서비스. HBase
hbase-thrift-server1.4.9Thrift 엔드포인트를 제공하는 서비스. HBase
hcatalog-client2.3.4-amzn-1hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server2.3.4-amzn-1서비스 제공HCatalog, 분산 애플리케이션을 위한 테이블 및 스토리지 관리 계층
hcatalog-webhcat-server2.3.4-amzn-1HTTP에 대한 REST 인터페이스를 제공하는 엔드포인트HCatalog.
hive-client2.3.4-amzn-1Hive 명령줄 클라이언트
hive-hbase2.3.4-amzn-1Hive-hbase 클라이언트
hive-metastore-server2.3.4-amzn-1하둡 작업을 위한 메타데이터를 저장하는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스입니다. SQL
hive-server22.3.4-amzn-1Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hue-server4.3.0하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
jupyterhub0.9.4Jupyter Notebook용 다중 사용자 서버
livy-server0.5.0-incubatingRESTApache Spark와 상호 작용하기 위한 인터페이스
nginx1.12.1nginx [엔진 x] 는 역방향 프록시 HTTP 서버입니다.
mahout-client0.13.0머신 러닝을 위한 라이브러리.
mxnet1.3.1유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mysql-server5.5.54+내 SQL 데이터베이스 서버
nvidia-cuda9.2.88Nvidia 드라이버와 Cuda 도구 키트
oozie-client5.1.0Oozie 명령줄 클라이언트
oozie-server5.1.0Oozie 워크플로 요청을 수락하는 서비스
opencv3.4.0오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library4.14.1- -1.4 HBase서버 및 클라이언트의 phoenix 라이브러리
phoenix-query-server4.14.1- -1.4 HBaseAvatica에 JDBC 대한 액세스뿐만 아니라 프로토콜 버퍼 및 JSON 형식 액세스를 제공하는 경량 서버 API
presto-coordinator0.215presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker0.215여러 쿼리를 실행하는 서비스.
pig-client0.17.0Pig 명령줄 클라이언트.
r3.4.1통계 컴퓨팅용 R 프로젝트
spark-client2.4.0Spark 명령줄 클라이언트.
spark-history-server2.4.0완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn2.4.0용 인메모리 실행 엔진. YARN
spark-yarn-slave2.4.0슬레이브에 필요한 Apache Spark 라이브러리 YARN
sqoop-client1.4.7Apache Sqoop 명령줄 클라이언트.
tensorflow1.12.0TensorFlow 고성능 수치 계산을 위한 오픈 소스 소프트웨어 라이브러리.
tez-on-yarn0.9.1tez 애플리케이션 및 라이브러리YARN.
webserver2.4.25+아파치 서버HTTP.
zeppelin-server0.8.1대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server3.4.13구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client3.4.13ZooKeeper 커맨드 라인 클라이언트.

5.22.0 구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이러한 파일은 대개 응용 프로그램의 구성 XML 파일 (예:) 에 해당합니다hive-site.xml. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.

emr-5.22.0 분류
분류 설명

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

container-log4j

YARN하둡의 컨테이너-log4j.properties 파일에서 값을 변경하십시오.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

emrfs-site

EMRFS설정 변경.

flink-conf

flink-conf.yaml 설정을 변경합니다.

flink-log4j

Flink log4j.properties 설정을 변경합니다.

flink-log4j-yarn-session

플링크 log4j-yarn-session. properties 설정을 변경합니다.

flink-log4j-cli

Flink log4j-cli.properties 설정을 변경합니다.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

hbase

Amazon에서 EMR 엄선한 아파치 설정. HBase

hbase-env

의 환경에서 HBase 값을 변경하십시오.

hbase-log4j

HBasehbase-log4j.properties 파일에서 값을 변경합니다.

hbase-metrics

의 hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. HBase

hbase-policy

HBase의 hbase-policy.xml 파일에서 값을 변경합니다.

hbase-site

hbase-site.xml 파일에서 HBase 값을 변경합니다.

hdfs-encryption-zones

HDFS암호화 영역을 구성합니다.

hdfs-site

HDFS의 hdfs-site.xml 에서 값을 변경하십시오.

hcatalog-env

HCatalog의 환경에서 값을 변경하십시오.

hcatalog-server-jndi

HCatalog의 jndi.properties에서 값을 변경합니다.

hcatalog-server-proto-hive-site

.xml에서 HCatalog 값을 변경합니다. proto-hive-site

hcatalog-webhcat-env

HCatalogW ebHCat 환경의 값을 변경합니다.

hcatalog-webhcat-log4j2

HCatalogebHCatW의 log4j2.properties에서 값을 변경하십시오.

hcatalog-webhcat-site

HCatalogebHCatW의 webhcat-site.xml 파일에서 값을 변경하십시오.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

hive-env

Hive 환경의 값을 변경합니다.

hive-exec-log4j2

하이브의 hive-exec-log 4j2.properties 파일에서 값을 변경하십시오.

hive-llap-daemon-log4j2

하이브의 4j2.properties 파일에서 값을 변경하십시오. llap-daemon-log

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

hue-ini

Hue ini 파일의 값을 변경합니다.

httpfs-env

환경에서 값을 변경하십시오. HTTPFS

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

hadoop-kms-env

하둡 KMS 환경에서 값을 변경합니다.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

jupyter-notebook-conf

Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

jupyter-hub-conf

JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다.

jupyter-s3-conf

Jupyter Notebook S3 지속성 구성

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

livy-env

Livy 환경의 값을 변경합니다.

livy-log4j

Livy log4j.properties 설정을 변경합니다.

mapred-env

MapReduce 애플리케이션 환경에서 값을 변경합니다.

mapred-site

MapReduce 애플리케이션의 mapred-site.xml 파일에서 값을 변경합니다.

oozie-env

Oozie 환경의 값을 변경합니다.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

pig-env

Pig 환경에서 값을 변경합니다.

pig-properties

Pig pig.properties 파일의 값을 변경합니다.

pig-log4j

Pig log4j.properties 파일의 값을 변경합니다.

presto-log

Presto log.properties 파일의 값을 변경합니다.

presto-config

Presto config.properties 파일의 값을 변경합니다.

presto-password-authenticator

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

spark

Amazon에서 EMR 엄선한 아파치 스파크의 설정.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

spark-env

the Spark 환경의 값을 변경합니다.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

spark-log4j

Spark log4j.properties 파일의 값을 변경합니다.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

sqoop-env

Sqoop 환경의 값을 변경합니다.

sqoop-oraoop-site

스쿱의 oraoop-site.xml 파일에서 값을 변경하세요. OraOop

sqoop-site

Sqoop sqoop-site.xml 파일의 값을 변경합니다.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

yarn-env

환경에서 값을 변경하십시오. YARN

yarn-site

YARN의 yarn-site.xml 파일에서 값을 변경합니다.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

zookeeper-config

zoo.cfg 파일에서 ZooKeeper 값을 변경합니다.

zookeeper-log4j

ZooKeeperlog4j.properties 파일에서 값을 변경합니다.