Amazon EMR 릴리스 5.20.0 - Amazon EMR

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon EMR 릴리스 5.20.0

5.20.0 애플리케이션 버전

이 릴리스에서는 다음 애플리케이션이 지원됩니다. Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, ZeppelinZooKeeper.

아래 표에는 이 Amazon 릴리스에서 사용할 수 있는 애플리케이션 버전EMR과 이전 3개의 Amazon EMR 릴리스(해당하는 경우)에서 사용할 수 있는 애플리케이션 버전이 나열되어 있습니다.

Amazon 의 각 릴리스에 대한 애플리케이션 버전에 대한 포괄적인 기록은 다음 주제를 EMR참조하세요.

애플리케이션 버전 정보
emr-5.20.0 emr-5.19.1 emr-5.19.0 emr-5.18.1
AWS SDK Java용 1.11.4611.11.4331.11.4331.11.393
Python 2.7, 3.62.7, 3.42.7, 3.42.7, 3.4
Scala 2.11.122.11.82.11.82.11.8
AmazonCloudWatchAgent - - - -
델타 - - - -
Flink1.6.21.6.11.6.11.6.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.81.4.71.4.71.4.7
HCatalog2.3.42.3.32.3.32.3.3
Hadoop2.8.52.8.52.8.52.8.4
Hive2.3.42.3.32.3.32.3.3
Hudi - - - -
Hue4.3.04.2.04.2.04.2.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub0.9.40.9.40.9.40.8.1
Livy0.5.00.5.00.5.00.5.0
MXNet1.3.11.3.01.3.01.2.0
Mahout0.13.00.13.00.13.00.13.0
Oozie5.0.05.0.05.0.05.0.0
피닉스4.14.04.14.04.14.04.14.0
Pig0.17.00.17.00.17.00.17.0
Presto0.2140.2120.2120.210
Spark2.4.02.3.22.3.22.3.2
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.12.01.11.01.11.01.9.0
Tez의 Hive 실행 시간 비교0.9.10.8.40.8.40.8.4
Trino(프레스토SQL) - - - -
Zeppelin0.8.00.8.00.8.00.8.0
ZooKeeper3.4.133.4.133.4.133.4.12

5.20.0 릴리스 정보

다음 릴리스 정보에는 Amazon EMR 릴리스 5.20.0에 대한 정보가 포함되어 있습니다. 변경 사항은 5.19.0에 관련됩니다.

최초 릴리스 날짜: 2018년 12월 18일

마지막 업데이트 날짜: 2019년 1월 22일

업그레이드
  • Flink 1.6.2

  • HBase 1.4.8

  • Hive 2.3.4

  • Hue 4.3.0

  • MXNet 1.3.1

  • Presto 0.214

  • Spark 2.4.0

  • TensorFlow 1.12.0

  • Tez 0.9.1

  • AWS SDK for Java 1.11.461

새로운 기능
  • (2019년 1월 22일) Amazon의 KerberosEMR는 외부 에서 보안 주체 인증을 지원하도록 개선되었습니다KDC. 이렇게 하면 여러 클러스터가 하나의 외부 를 공유할 수 있으므로 보안 주체 관리가 중앙 집중화됩니다KDC. 또한 외부는 Active Directory 도메인과 영역 간 신뢰를 가질 KDC 수 있습니다. 이를 통해 모든 클러스터는 Active Directory의 보안 주체를 인증할 수 있습니다. 자세한 내용은 Amazon EMR 관리 안내서Kerberos 인증 사용을 참조하세요.

변경 사항, 향상된 기능 및 해결된 문제
  • AmazonAMI용 기본 Amazon Linux EMR

    • Python3 패키지가 python 3.4에서 3.6으로 업그레이드되었습니다.

  • EMRFS S3-optimized 커밋자

    • 이제 EMRFS S3-optimized 커밋이 기본적으로 활성화되어 쓰기 성능이 향상됩니다. 자세한 내용은 EMRFS S3-optimized 커밋 사용 단원을 참조하십시오.

  • Hive

  • Glue와 Spark 및 Hive

    • 5.20.0 이상에서는 AWS Glue Data Catalog를 EMR 메타스토어로 사용할 때 Spark 및 Hive에 대해 병렬 파티션 정리가 자동으로 활성화됩니다. 이 변경 사항은 여러 요청을 병렬로 실행하여 파티션을 검색함으로써 쿼리 계획 시간을 크게 단축합니다. 동시에 실행할 수 있는 총 세그먼트 수는 1~10입니다. 기본값은 5이며, 또한 권장 설정입니다. hive-site 구성 분류에서 aws.glue.partition.num.segments 속성을 지정하여 이 설정을 변경할 수 있습니다. 조절이 발생할 경우 값을 1로 변경하여 기능을 끌 수 있습니다. 자세한 내용은 AWS Glue 그먼트 구조를 참조하세요.

알려진 문제
  • Hue(Amazon EMR 릴리스 5.24.0에서 수정됨)

    • Amazon에서 실행되는 HueEMR는 Solr을 지원하지 않습니다. Amazon EMR 릴리스 5.20.0부터 잘못된 구성 문제로 인해 Solr이 활성화되고 무해한 오류 메시지가 다음과 유사하게 표시됩니다.

      Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))

      Solr 오류 메시지를 표시하지 않으려면

      1. 를 사용하여 기본 노드 명령줄에 연결합니다SSH.

      2. 텍스트 편집기를 사용하여 hue.ini 파일을 엽니다. 예:

        sudo vim /etc/hue/conf/hue.ini

      3. appblacklist라는 단어를 검색하고 해당 줄을 다음과 같이 수정합니다.

        appblacklist = search
      4. 변경 내용을 저장하고 다음 예와 같이 Hue를 다시 시작합니다.

        sudo stop hue; sudo start hue
  • Tez의 Hive 실행 시간 비교

    • 이 문제는 Amazon EMR 5.22.0에서 수정되었습니다.

      http://에서 Tez UI에 연결하는 경우MasterDNS클러스터 기본 노드에 대한 SSH 연결을 통해 :8080/tez-ui에 연결하면 오류 “Adapter 작업 실패 - 타임라인 서버(ATS)에 도달하지 못합니다. 작동 중지되었거나 활성화되지 않은 CORS 경우 가 나타나거나 태스크에 예기치 않게 해당 없음이 표시됩니다.

      이는 Tez UI가 기본 노드의 호스트 이름이 localhost 아닌 를 사용하여 YARN 타임라인 서버에 요청하기 때문에 발생합니다. 이 문제를 해결하기 위해 스크립트를 부트스트랩 작업 또는 단계로 실행할 수 있습니다. 스크립트는 Tez configs.env 파일의 호스트 이름을 업데이트합니다. 스크립트에 대한 자세한 내용과 위치를 보려면 부트스트랩 지침을 참조하십시오.

  • Amazon EMR 버전 5.19.0, 5.20.0 및 5.21.0에서는 YARN 노드 레이블이 HDFS 디렉터리에 저장됩니다. 이로 인해 경우에 따라 코어 노드 시작이 지연되어 클러스터가 시간 초과되고 시작이 실패할 수 있습니다. Amazon EMR 5.22.0부터 이 문제가 해결됩니다. YARN 노드 레이블은 각 클러스터 노드의 로컬 디스크에 저장되므로 에 대한 종속성을 피할 수 있습니다HDFS.

  • 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

    Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증이 있는 클러스터를 실행하는 경우 클러스터가 일정 시간 실행된 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

    해결 방법:

    • SSH 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 hadoop 사용자로.

    • 다음 명령을 실행하여 hadoop 사용자의 Kerberos 티켓을 갱신합니다.

      kinit -kt <keytab_file> <principal>

      일반적으로 keytab 파일은 /etc/hadoop.keytab에 있으며, 보안 주체는 hadoop/<hostname>@<REALM> 양식입니다.

    참고

    이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

5.20.0 구성 요소 버전

Amazon이 이 릴리스와 함께 EMR 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 다른 일부는 Amazon에만 고유EMR하며 시스템 프로세스 및 기능에 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 최신 Amazon EMR 릴리스의 빅데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 찾을 수 있는 최신 버전입니다. Amazon에서는 가능한 한 빨리 커뮤니티 릴리스EMR를 제공합니다.

Amazon의 일부 구성 요소는 커뮤니티 버전과 EMR 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어 버전 2.2myapp-component로 명명된 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 3회 수정된 경우 릴리스 버전은 로 나열됩니다2.2-amzn-2.

구성 요소 버전 설명
aws-sagemaker-spark-sdk1.2.1Amazon SageMaker Spark SDK
emr-ddb4.7.0하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies2.5.1편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis3.4.0하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-s3-dist-cp2.10.0Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select1.2.0EMR S3Select 커넥터
emrfs2.29.0하둡 에코시스템 애플리케이션용 Amazon S3 커넥터.
flink-client1.6.2Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션
ganglia-monitor3.7.2하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector3.7.2Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web3.7.1Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client2.8.5-amzn-1'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode2.8.5-amzn-1HDFS 블록 저장을 위한 노드 수준 서비스입니다.
hadoop-hdfs-library2.8.5-amzn-1HDFS 명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode2.8.5-amzn-1HDFS 파일 이름 및 블록 위치를 추적하기 위한 서비스입니다.
hadoop-httpfs-server2.8.5-amzn-1HTTP HDFS 작업을 위한 엔드포인트입니다.
hadoop-kms-server2.8.5-amzn-1Hadoop의 를 기반으로 하는 암호화 키 관리 서버입니다 KeyProvider API.
hadoop-mapred2.8.5-amzn-1MapReduce MapReduce 애플리케이션 실행을 위한 실행 엔진 라이브러리입니다.
hadoop-yarn-nodemanager2.8.5-amzn-1YARN 개별 노드에서 컨테이너를 관리하기 위한 서비스입니다.
hadoop-yarn-resourcemanager2.8.5-amzn-1YARN 클러스터 리소스 및 분산 애플리케이션을 할당하고 관리하기 위한 서비스입니다.
hadoop-yarn-timeline-server2.8.5-amzn-1YARN 애플리케이션에 대한 현재 및 과거 정보를 검색하는 서비스입니다.
hbase-hmaster1.4.8리전 조정 및 관리 명령 실행을 담당하는 HBase 클러스터를 위한 서비스입니다.
hbase-region-server1.4.8하나 이상의 HBase 리전에 서비스를 제공하는 서비스입니다.
hbase-client1.4.8HBase 명령줄 클라이언트.
hbase-rest-server1.4.8에 대한 RESTful HTTP 엔드포인트를 제공하는 서비스입니다HBase.
hbase-thrift-server1.4.8에 Thrift 엔드포인트를 제공하는 서비스입니다HBase.
hcatalog-client2.3.4-amzn-0hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server2.3.4-amzn-0분산 애플리케이션을 위한 테이블 및 스토리지 관리 계층HCatalog인 를 제공하는 서비스입니다.
hcatalog-webhcat-server2.3.4-amzn-0HTTP 에 REST 인터페이스를 제공하는 엔드포인트입니다HCatalog.
hive-client2.3.4-amzn-0Hive 명령줄 클라이언트
hive-hbase2.3.4-amzn-0Hive-hbase 클라이언트
hive-metastore-server2.3.4-amzn-0Hive 메타스토어에 액세스하기 위한 서비스. Hadoop 작업SQL에서 에 대한 메타데이터를 저장하는 의미 리포지토리입니다.
hive-server22.3.4-amzn-0Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hue-server4.3.0하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
jupyterhub0.9.4Jupyter Notebook용 다중 사용자 서버
livy-server0.5.0-incubatingREST Apache Spark와 상호 작용하기 위한 인터페이스
nginx1.12.1nginx [엔진 x]는 HTTP 및 역방향 프록시 서버입니다.
mahout-client0.13.0머신 러닝을 위한 라이브러리.
mxnet1.3.1유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mysql-server5.5.54+내SQL 데이터베이스 서버.
nvidia-cuda9.2.88Nvidia 드라이버와 Cuda 도구 키트
oozie-client5.0.0Oozie 명령줄 클라이언트
oozie-server5.0.0Oozie 워크플로 요청을 수락하는 서비스
opencv3.4.0오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library4.14.0-HBase-1.4서버 및 클라이언트의 phoenix 라이브러리
phoenix-query-server4.14.0-HBase-1.4Avatica에 JDBC 대한 액세스 권한과 프로토콜 버퍼 및 JSON 형식 액세스를 제공하는 경량 서버 API
presto-coordinator0.214presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker0.214여러 쿼리를 실행하는 서비스.
pig-client0.17.0Pig 명령줄 클라이언트.
r3.4.1통계 컴퓨팅용 R 프로젝트
spark-client2.4.0Spark 명령줄 클라이언트.
spark-history-server2.4.0완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn2.4.0에 대한 인 메모리 실행 엔진입니다YARN.
spark-yarn-slave2.4.0YARN 슬레이브에 필요한 Apache Spark 라이브러리입니다.
sqoop-client1.4.7Apache Sqoop 명령줄 클라이언트.
tensorflow1.12.0TensorFlow 고성능 수치 계산을 위한 오픈 소스 소프트웨어 라이브러리입니다.
tez-on-yarn0.9.1tez YARN 애플리케이션 및 라이브러리입니다.
webserver2.4.25+Apache HTTP 서버.
zeppelin-server0.8.0대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server3.4.13구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client3.4.13ZooKeeper 명령줄 클라이언트.

5.20.0 구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 와 같은 애플리케이션의 구성 XML 파일에 해당하는 경우가 많습니다hive-site.xml. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.

emr-5.20.0 분류
분류 설명

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

container-log4j

Hadoop YARN의 container-log4j.properties 파일의 값을 변경합니다.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

emrfs-site

EMRFS 설정을 변경합니다.

flink-conf

flink-conf.yaml 설정을 변경합니다.

flink-log4j

Flink log4j.properties 설정을 변경합니다.

flink-log4j-yarn-session

Flink log4j-yarn-session.properties 설정을 변경합니다.

flink-log4j-cli

Flink log4j-cli.properties 설정을 변경합니다.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

hbase

Amazon에서 EMR큐레이팅한 Apache 설정입니다HBase.

hbase-env

HBase의 환경에서 값을 변경합니다.

hbase-log4j

HBase의 hbase-log4j.properties 파일에서 값을 변경합니다.

hbase-metrics

HBase의 hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

hbase-policy

HBase의 hbase-policy.xml 파일에서 값을 변경합니다.

hbase-site

HBase의 hbase-site.xml 파일에서 값을 변경합니다.

hdfs-encryption-zones

HDFS 암호화 영역을 구성합니다.

hdfs-site

HDFS의 hdfs-site.xml에서 값을 변경합니다.

hcatalog-env

HCatalog의 환경에서 값을 변경합니다.

hcatalog-server-jndi

HCatalog의 jndi.properties에서 값을 변경합니다.

hcatalog-server-proto-hive-site

HCatalog의 proto-hive-site.xml에서 값을 변경합니다.

hcatalog-webhcat-env

HCatalog W ebHCat의 환경에서 값을 변경합니다.

hcatalog-webhcat-log4j2

HCatalog W ebHCat의 log4j2.properties에서 값을 변경합니다.

hcatalog-webhcat-site

HCatalog W ebHCat의 webhcat-site.xml 파일의 값을 변경합니다.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

hive-env

Hive 환경의 값을 변경합니다.

hive-exec-log4j2

Hive의 hive-exec-log4j2.properties 파일의 값을 변경합니다.

hive-llap-daemon-log4j2

Hive의 llap-daemon-log4j2.properties 파일에서 값을 변경합니다.

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

hue-ini

Hue ini 파일의 값을 변경합니다.

httpfs-env

HTTPFS 환경의 값을 변경합니다.

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

hadoop-kms-env

Hadoop KMS 환경에서 값을 변경합니다.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

jupyter-notebook-conf

Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

jupyter-hub-conf

JupyterHubs의 jupyterhub_config.py 파일의 값을 변경합니다.

jupyter-s3-conf

Jupyter Notebook S3 지속성 구성

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

livy-env

Livy 환경의 값을 변경합니다.

livy-log4j

Livy log4j.properties 설정을 변경합니다.

mapred-env

MapReduce 애플리케이션 환경의 값을 변경합니다.

mapred-site

MapReduce 애플리케이션의 mapred-site.xml 파일의 값을 변경합니다.

oozie-env

Oozie 환경의 값을 변경합니다.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

pig-env

Pig 환경에서 값을 변경합니다.

pig-properties

Pig pig.properties 파일의 값을 변경합니다.

pig-log4j

Pig log4j.properties 파일의 값을 변경합니다.

presto-log

Presto log.properties 파일의 값을 변경합니다.

presto-config

Presto config.properties 파일의 값을 변경합니다.

presto-password-authenticator

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

spark

Amazon에서 EMR큐레이팅한 Apache Spark 설정입니다.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

spark-env

the Spark 환경의 값을 변경합니다.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

spark-log4j

Spark log4j.properties 파일의 값을 변경합니다.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

sqoop-env

Sqoop 환경의 값을 변경합니다.

sqoop-oraoop-site

Sqoop OraOop의 oraoop-site.xml 파일의 값을 변경합니다.

sqoop-site

Sqoop sqoop-site.xml 파일의 값을 변경합니다.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

yarn-env

YARN 환경의 값을 변경합니다.

yarn-site

YARN의 yarn-site.xml 파일의 값을 변경합니다.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

zookeeper-config

ZooKeeper의 zoo.cfg 파일에서 값을 변경합니다.

zookeeper-log4j

ZooKeeper의 log4j.properties 파일에서 값을 변경합니다.