Amazon EMR 6.x 릴리스 버전 - Amazon EMR

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon EMR 6.x 릴리스 버전

아래의 각 탭에는 각 Amazon EMR 6.x 릴리스 버전에 제공되는 애플리케이션 버전, 릴리스 정보, 구성 요소 버전 및 구성 분류가 나와 있습니다.

Amazon EMR 6.x 시리즈는 Apache 하둡 3를 지원합니다. 모든 릴리스의 애플리케이션 버전을 포괄적으로 보여주는 다이어그램은 Amazon EMR 6.x 릴리스의 애플리케이션 버전(PNG)을 참조하십시오.

New Amazon EMR release versions are made available in different regions over a period of several days, beginning with the first region on the initial release date. The latest release version may not be available in your region during this period.

6.1.0

6.1.0 애플리케이션 버전

이 릴리즈에서는 다음 애플리케이션이 지원됩니다. 플링크, 결절종, Hadoop(하, H기본, H카탈로그, 하이브, 화이, 주피터허브, 리비, MX넷, 우지, 피닉스, 돼지, 프레스토, 프레스토SQL, 스파크, 스쿼프, 텐서플로우, 테즈, 체펠린, 및 동물원 키퍼.

아래 다이어그램은 Amazon EMR의 이번 릴리스에서 사용 가능한 애플리케이션 버전과 이전 4개 Amazon EMR 릴리스의 애플리케이션 버전을 보여줍니다.

각 Amazon EMR 릴리스의 포괄적인 애플리케이션 버전 기록은 다음 다이어그램을 참조하십시오.

6.1.0 릴리스 정보

다음 릴리스 정보에는 Amazon EMR 릴리스 버전 6.1.0에 대한 정보가 포함됩니다. 변경 사항은 6.0.0에 관련됩니다.

최초 릴리스 날짜: 2020년 9월 4일

최종 업데이트 날짜: 2020년 10월 15일

지원되는 애플리케이션

  • AWS SDK for Java 버전 1.11.828

  • Flink 버전 1.11.0

  • Ganglia 버전 3.7.2

  • 하둡 버전 3.2.1-amzn-1

  • HBase 버전 2.2.5

  • HBase-operator-tools 1.0.0

  • HCatalog 버전 3.1.2-amzn-0

  • Hive 버전 3.1.2-amzn-1

  • Hudi 버전 0.5.2-incubating

  • Hue 버전 4.7.1

  • JupyterHub 버전 1.1.0

  • Livy 버전 0.7.0

  • MXNet 버전 1.6.0

  • Oozie 버전 5.2.0

  • Phoenix 버전 5.0.0

  • Presto 버전 0.232

  • PrestoSQL 버전 338

  • Spark 버전 3.0.0

  • TensorFlow 버전 2.1.0

  • Zeppelin 버전 0.9.0-preview1

  • Zookeeper 버전 3.4.14

  • 커넥터 및 드라이버: DynamoDB Connector 4.14.0

새로운 기능

  • ARM 인스턴스 유형은 Amazon EMR 버전 5.30.0 및 Amazon EMR 버전 6.1.0부터 지원됩니다.

  • M6g 범용 인스턴스 유형은 Amazon EMR 버전 6.1.0부터 지원됩니다. 자세한 내용은 Amazon EMR 관리 안내서지원되는 인스턴스 유형을 참조하세요.

  • EC2 배치 그룹 기능은 여러 마스터 노드 클러스터에 대한 옵션으로 Amazon EMR 버전 5.23.0부터 지원됩니다. 현재 배치 그룹 기능에서는 마스터 노드 유형만 지원되며 SPREAD 전략은 해당 마스터 노드에 적용됩니다. SPREAD 전략은 소규모 인스턴스 그룹을 별도의 기본 하드웨어에 배치하여 하드웨어 장애 발생 시 여러 마스터 노드의 손실을 방지합니다. 자세한 내용은 Amazon EMR 관리 안내서EC2 배치 그룹과 EMR 통합 단원을 참조하십시오.

  • 관리형 조정 – Amazon EMR 버전 6.1.0을 사용하면 EMR 관리형 조정을 활성화하여 워크로드에 따라 클러스터의 인스턴스 또는 유닛 수를 자동으로 늘리거나 줄일 수 있습니다. EMR은 클러스터 지표를 지속적으로 평가하여 비용과 속도 측면에서 클러스터를 최적화하는 조정 결정을 내립니다. 관리형 조정은 Amazon EMR 버전 5.30.0 이상(6.0.0 제외)에서도 사용할 수 있습니다. 자세한 내용은 Amazon EMR 관리 안내서클러스터 리소스 조정을 참조하십시오.

  • PrestoSQL 버전 338은 EMR 6.1.0에서 지원됩니다. 자세한 내용은 도커 통합 구성을 참조하십시오.

    • PrestoSQL은 EMR 6.1.0 이상 버전에서만 지원되며 EMR 6.0.0 또는 EMR 5.x에서는 지원되지 않습니다.

    • 애플리케이션 이름 Presto는 클러스터에 PrestoDB를 설치하는 데 계속 사용됩니다. 클러스터에 PrestoSQL을 설치하려면 애플리케이션 이름 PrestoSQL을 사용합니다.

    • PrestoDB 또는 PrestoSQL을 설치할 수 있지만 둘 다 단일 클러스터에 설치할 수는 없습니다. 클러스터를 생성하려고 할 때 PrestoDB와 PresoSQL을 모두 지정하면 확인 오류가 발생하고 클러스터 생성 요청이 실패합니다.

    • PrestoSQL은 단일 마스터 및 다중 마스터 클러스터 모두에서 지원됩니다. 다중 마스터 클러스터에서는 PrestoSQL 또는 PrestoDB를 실행하려면 외부 Hive 메타스토어가 필요합니다. 여러 마스터 노드를 포함하는 EMR 클러스터에서 지원되는 애플리케이션을 참조하세요.

  • Apache 하둡 및 Docker를 사용한 Apache Spark에 대한 ECR 자동 인증 지원: Spark 사용자는 Docker Hub 및 Amazon Elastic Container Registry(Amazon ECR)의 Docker 이미지를 사용하여 환경 및 라이브러리 종속성을 정의할 수 있습니다.

    Docker 구성Amazon EMR 6.x를 사용하여 Docker로 Spark 애플리케이션 실행.

  • EMR은 Apache Hive ACID 트랜잭션 지원: Amazon EMR 6.1.0은 Hive ACID 트랜잭션에 대한 지원을 추가하여 데이터베이스의 ACID 속성을 준수합니다. 이 기능을 사용하면 Amazon Simple Storage Service(Amazon S3)의 데이터가 있는 Hive 관리형 테이블에서 INSERT, UPDATE, DELETE 및 MERGE 작업을 실행할 수 있습니다. 이 기능은 스트리밍 수집, 데이터 재작성, MERGE를 사용한 대량 업데이트 및 느리게 변경되는 차원과 같은 사용 사례에 대한 핵심 기능입니다. 구성 예제 및 사용 사례를 비롯한 자세한 내용은 Amazon EMR은 Apache Hive ACID 트랜잭션 지원 단원을 참조하세요.

변경 사항, 향상된 기능 및 해결된 문제

  • Apache Flink는 EMR 6.0.0에서 지원되지 않지만 Flink 1.11.0을 사용하는 경우에는 EMR 6.1.0에서 지원됩니다. 이는 공식적으로 하둡 3를 지원하는 Flink의 첫 번째 버전입니다. Apache Flink 1.11.0 Release Announcement를 참조하세요.

  • Ganglia가 기본 EMR 6.1.0 패키지 번들에서 제거되었습니다.

알려진 문제

  • spark.driver.extraJavaOptionsspark.executor.extraJavaOptions를 사용하여 사용자 지정 가비지 수집 구성을 설정하면 충돌하는 가비지 수집 구성으로 인해 EMR 6.1에서 드라이버/실행기 시작 오류가 발생합니다. EMR 릴리스 6.1.0에서는 대신 spark.driver.defaultJavaOptionsspark.executor.defaultJavaOptions 속성을 사용하여 드라이버 및 실행기에 대한 사용자 지정 Spark 가비지 수집 구성을 지정해야 합니다. 자세한 내용은 Apache Spark 런타임 환경Amazon EMR 6.1.0에서 Spark 가비지 수집 구성에서 자세한 내용을 읽어보세요.

  • Pig를 Oozie와 함께 사용하면(그리고 Hue 내에서, Hue는 Oozie 작업을 사용하여 Pig 스크립트를 실행하기 때문) 기본 lzo 라이브러리를 로드할 수 없다는 오류가 발생합니다. 이 오류 메시지는 정보를 제공할 목적일 뿐이며 Pig 실행을 차단하지 않습니다.

  • Hudi 동시성 지원: 현재 Hudi는 단일 Hudi 테이블에 대한 동시 쓰기를 지원하지 않습니다. 또한 Hudi는 새 라이터의 시작을 허용하기 전에 진행 중인 라이터에 의해 수행되는 변경 사항을 모두 롤백합니다. 동시 쓰기는 이 메커니즘을 방해할 수 있으며, 데이터 손상을 초래할 수 있는 경쟁 조건을 도입할 수 있습니다. 데이터 처리 워크플로의 일부로 언제든지 Hudi 테이블에 대해 작동하는 Hudi 라이터 하나만 있는지 확인해야 합니다. Hudi는 동일한 Hudi 테이블에 대해 작동하는 여러 동시 리더를 지원합니다.

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    참고

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

6.1.0 컴포넌트 버전

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. AWS는 Amazon EMR에서 커뮤니티 릴리스를 최대한 빨리 제공할 수 있도록 노력하고 있습니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어, 버전 2.2의 myapp-component라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스 버전에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2로 나열됩니다.

구성 요소 버전 설명
aws-sagemaker-spark-sdk 1.3.0 Amazon SageMaker Spark SDK
emr-ddb 4.14.0 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies 3.1.0 편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis 3.5.0 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-s3-dist-cp 2.14.0 Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select 2.0.0 EMR S3Select 커넥터
emrfs 2.42.0 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터
flink-client 1.11.0 Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션
ganglia-monitor 3.7.2 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector 3.7.2 Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web 3.7.1 Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client 3.2.1-아만-1 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode 3.2.1-아만-1 블록을 저장하는 HDFS 노드 수준 서비스
hadoop-hdfs-library 3.2.1-아만-1 HDFS 명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode 3.2.1-아만-1 파일 이름 및 블록 위치를 추적하는 HDFS 서비스
hadoop-hdfs-journalnode 3.2.1-아만-1 HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스
hadoop-httpfs-server 3.2.1-아만-1 HDFS 작업에 대한 HTTP 엔드포인트
hadoop-kms-server 3.2.1-아만-1 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버
hadoop-mapred 3.2.1-아만-1 MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리
hadoop-yarn-nodemanager 3.2.1-아만-1 개별 노드의 컨테이너를 관리하는 YARN 서비스
hadoop-yarn-resourcemanager 3.2.1-아만-1 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스
hadoop-yarn-timeline-server 3.2.1-아만-1 YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스
hbase-hmaster 2.2.5 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스
hbase-region-server 2.2.5 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스
hbase-client 2.2.5 HBase 명령줄 클라이언트
hbase-rest-server 2.2.5 HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스
hbase-thrift-server 2.2.5 HBase에 Thrift 엔드포인트를 제공하는 서비스
hcatalog-client 3.1.2-아마진-2 hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server 3.1.2-아마진-2 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스
hcatalog-webhcat-server 3.1.2-아마진-2 HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트
hive-client 3.1.2-아마진-2 Hive 명령줄 클라이언트
hive-hbase 3.1.2-아마진-2 Hive-hbase 클라이언트
hive-metastore-server 3.1.2-아마진-2 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스
hive-server2 3.1.2-아마진-2 Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hudi 0.5.2-배양-amzn-2 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크.
hudi-presto 0.5.2-배양-amzn-2 Hudi로 Presto를 실행하기 위한 번들 라이브러리.
후디-프레스투스콜 0.5.2-배양-amzn-2 Hudi와 함께 PrestoSQL을 실행하기 위한 번들 라이브러리입니다.
후디-스파크 0.5.2-배양-amzn-2 Hudi와 함께 스파크를 실행하기 위한 라이브러리를 번들로 묶어줍니다.
hue-server 4.7.1 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
jupyterhub 1.1.0 Jupyter 노트북용 다중 사용자 서버
livy-server 0.7.0-incubating Apache Spark와 상호작용하기 위한 REST 인터페이스
nginx 1.12.1 HTTP인 nginx [engine x] 및 역방향 프록시 서버
mxnet 1.6.0 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mariadb-server 5.5.64 MariaDB 데이터베이스 서버.
nvidia-cuda 9.2.88 Nvidia 드라이버와 Cuda 도구 키트
oozie-client 5.2.0 Oozie 명령줄 클라이언트
oozie-server 5.2.0 Oozie 워크플로 요청을 수락하는 서비스
opencv 4.3.0 오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library 5.0.0-HBase-2.0 서버 및 클라이언트의 phoenix 라이브러리
phoenix-query-server 5.0.0-HBase-2.0 Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버
presto-coordinator 0.232 presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker 0.232 여러 쿼리를 실행하는 서비스.
presto-client 0.232 Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
프레스토 평방-코디네이터 338명 prestosql-직원 간의 쿼리 수락 및 쿼리 실행 관리를 위한 서비스입니다.
프레스토스켈 작업자 338명 여러 쿼리를 실행하는 서비스.
pstosql-클라이언트 338명 Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
pig-client 0.17.0 Pig 명령줄 클라이언트.
-r 3.4.3 통계 컴퓨팅용 R 프로젝트
ranger-kms-server 2.0.0 Apache Ranger 키 관리 시스템
spark-client 3.0.0-아만-0 Spark 명령줄 클라이언트.
spark-history-server 3.0.0-아만-0 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn 3.0.0-아만-0 YARN용 인 메모리 실행 엔진.
spark-yarn-slave 3.0.0-아만-0 YARN 슬레이브에서 필요한 Apache Spark 라이브러리.
sqoop-client 1.4.7 Apache Sqoop 명령줄 클라이언트.
tensorflow 2.1.0 TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다.
tez-on-yarn 0.9.2 tez YARN 애플리케이션 및 라이브러리.
webserver 2.4.41 이상 Apache HTTP 서버.
zeppelin-server 0.9.0-미리 보기1 대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server 3.4.14 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client 3.4.14 ZooKeeper 명령줄 클라이언트.

6.1.0 구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.

emr-6.1.0 분류
분류 설명

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

container-executor

하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다.

container-log4j

하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

emrfs-site

EMRFS 설정을 변경합니다.

flink-conf

flink-conf.yaml 설정을 변경합니다.

flink-log4j

Flink log4j.properties 설정을 변경합니다.

flink-log4j-yarn-session

Flink log4j-yarn-session.properties 설정을 변경합니다.

flink-log4j-cli

Flink log4j-cli.properties 설정을 변경합니다.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

hbase

Apache HBase에 대한 EMR 큐레이트 설정입니다.

hbase-env

HBase 환경의 값을 변경합니다.

hbase-log4j

HBase hbase-log4j.properties 파일의 값을 변경합니다.

hbase-metrics

HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

hbase-policy

HBase hbase-policy.xml 파일의 값을 변경합니다.

hbase-site

HBase hbase-site.xml 파일의 값을 변경합니다.

hdfs-encryption-zones

HDFS 암호화 영역을 구성합니다.

hdfs-env

HDFS 환경의 값을 변경합니다.

hdfs-site

HDFS hdfs-site.xml의 값을 변경합니다.

hcatalog-env

HCatalog 환경의 값을 변경합니다.

hcatalog-server-jndi

HCatalog jndi.properties 환경의 값을 변경합니다.

hcatalog-server-proto-hive-site

HCatalog proto-hive-site.xml의 값을 변경합니다.

hcatalog-webhcat-env

HCatalog WebHCat 환경의 값을 변경합니다.

hcatalog-webhcat-log4j2

HCatalog WebHCat log4j2.properties의 값을 변경합니다.

hcatalog-webhcat-site

HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다.

hive

Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

hive-env

Hive 환경의 값을 변경합니다.

hive-exec-log4j2

Hive hive-exec-log4j2.properties 파일의 값을 변경합니다.

hive-llap-daemon-log4j2

Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다.

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

hue-ini

Hue ini 파일의 값을 변경합니다.

httpfs-env

HTTPFS 환경의 값을 변경합니다.

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

hadoop-kms-env

하둡 KMS 환경의 값을 변경합니다.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

hudi-env

Hudi 환경의 값을 변경합니다.

jupyter-notebook-conf

Jupyter 노트북의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

jupyter-hub-conf

JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다.

jupyter-s3-conf

Jupyter 노트북 S3 지속성 구성

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

livy-env

Livy 환경의 값을 변경합니다.

livy-log4j

Livy log4j.properties 설정을 변경합니다.

mapred-env

MapReduce 애플리케이션 환경의 값을 변경합니다.

mapred-site

MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다.

oozie-env

Oozie 환경의 값을 변경합니다.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

pig-env

Pig 환경에서 값을 변경합니다.

pig-properties

Pig pig.properties 파일의 값을 변경합니다.

pig-log4j

Pig log4j.properties 파일의 값을 변경합니다.

presto-log

Presto log.properties 파일의 값을 변경합니다.

presto-config

Presto config.properties 파일의 값을 변경합니다.

presto-암호-인증자

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

압력 sql-로그

Presto log.properties 파일의 값을 변경합니다.

압력 sql-구성

Presto config.properties 파일의 값을 변경합니다.

pstosql-암호-인증자

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

프레스토 평방-ENV

Presto의 presto-env.sh 파일에서 값을 변경합니다.

압력 sql-노드

PrestoSQL의 노드.속성 파일에서 값을 변경합니다.

프레스토 평방-커넥터-블랙홀

PrestoSQL의 블랙홀.속성 파일에서 값을 변경합니다.

프레스토 평방-커넥터-카산드라

PrestoSQL의 카산드라.속성 파일에서 값을 변경합니다.

압력-커넥터-하이브

PrestoSQL의 hive.properties 파일에서 값을 변경합니다.

압력-커넥터-jmx

PrestoSQL의 jmx.properties 파일에서 값을 변경합니다.

프레스토 평방-커넥터-카프카

PrestoSQL의 kafka.properties 파일에서 값을 변경합니다.

pstosql-커넥터-로컬파일

PrestoSQL의 로컬 파일.속성 파일에서 값을 변경합니다.

압력-커넥터-메모리

PrestoSQL 메모리.속성 파일의 값을 변경합니다.

프레스토 평방-커넥터-몽고

PrestoSQL의 mongodb.properties 파일에서 값을 변경합니다.

압력-커넥터-미셸

PrestoSQL의 mysql.properties 파일에서 값을 변경합니다.

프레스토 평방 미터-커넥터-포스트 개러 평방 피트

PrestoSQL의 postgresql.properties 파일에서 값을 변경합니다.

압력-커넥터-래프터

PrestoSQL의 raptor.properties 파일에서 값을 변경합니다.

압력-커넥터-복구

PrestoSQL의 redis.properties 파일에서 값을 변경합니다.

압력-커넥터-고속

PrestoSQL의 redshift.properties 파일에서 값을 변경합니다.

프레스토 평방-커넥터-탭

PrestoSQL의 tpch.properties 파일에서 값을 변경합니다.

압력 sql-커넥터-tpcds

PrestoSQL의 tpcds.properties 파일에서 값을 변경합니다.

ranger-kms-dbks-site

Ranger KMS에서 dbks-site.xml 파일의 값을 변경합니다.

ranger-kms-site

Ranger KMS에서 ranger-kms-site.xml 파일의 값을 변경합니다.

ranger-kms-env

Ranger KMS 환경의 값을 변경합니다.

ranger-kms-log4j

Ranger KM에서 kms-log4j.properties 파일의 값을 변경합니다.

ranger-kms-db-ca

Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다.

spark

Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

spark-env

the Spark 환경의 값을 변경합니다.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

spark-log4j

Spark log4j.properties 파일의 값을 변경합니다.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

sqoop-env

Sqoop 환경의 값을 변경합니다.

sqoop-oraoop-site

Sqoop OraOop oraoop-site.xml 파일의 값을 변경합니다.

sqoop-site

Sqoop sqoop-site.xml 파일의 값을 변경합니다.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

yarn-env

YARN 환경의 값을 변경합니다.

yarn-site

YARN yarn-site.xml 파일의 값을 변경합니다.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

zookeeper-config

ZooKeeper zoo.cfg 파일의 값을 변경합니다.

zookeeper-log4j

ZooKeeper log4j.properties 파일의 값을 변경합니다.

6.0.0

6.0.0 애플리케이션 버전

이 릴리스에는 Ganglia, 하둡, HBase, HCatalog, Hive, Hue, JupyterHub, Livy, MXNet, Oozie, Phoenix, Presto, Spark, TensorFlow, Tez, ZeppelinZooKeeper 애플리케이션이 지원됩니다.

아래 다이어그램은 Amazon EMR의 이번 릴리스에서 사용 가능한 애플리케이션 버전과 이전 4개 Amazon EMR 릴리스의 애플리케이션 버전을 보여줍니다.

각 Amazon EMR 릴리스의 포괄적인 애플리케이션 버전 기록은 다음 다이어그램을 참조하십시오.

6.0.0 릴리스 정보

다음 릴리스 정보에는 Amazon EMR 릴리스 버전 6.0.0에 대한 정보가 포함됩니다.

최초 릴리스 날짜: 2020년 3월 10일

지원되는 애플리케이션

  • AWS SDK for Java 버전 1.11.711

  • Ganglia 버전 3.7.2

  • Hadoop 버전 3.2.1

  • HBase 버전 2.2.3

  • HCatalog 버전 3.1.2

  • Hive 버전 3.1.2

  • Hudi 버전 0.5.0-incubating

  • Hue 버전 4.4.0

  • JupyterHub 버전 1.0.0

  • Livy 버전 0.6.0

  • MXNet 버전 1.5.1

  • Oozie 버전 5.1.0

  • Phoenix 버전 5.0.0

  • Presto 버전 0.230

  • Spark 버전 2.4.4

  • TensorFlow 버전 1.14.0

  • Zeppelin 버전 0.9.0-SNAPSHOT

  • Zookeeper 버전 3.4.14

  • 커넥터 및 드라이버: DynamoDB Connector 4.14.0

참고

Flink, Sqoop, Pig 및 Mahout는 Amazon EMR 버전 6.0.0에서만 사용할 수 있습니다.

새로운 기능

  • YARN 도커 런타임 지원 - Spark 작업과 같은 YARN 애플리케이션은 이제 도커 컨테이너의 컨텍스트에서 실행될 수 있습니다. 이렇게 하면 Amazon EMR 클러스터에 사용자 지정 라이브러리를 설치할 필요 없이 도커 이미지의 종속성을 쉽게 정의할 수 있습니다. 자세한 내용은 도커 통합 구성Amazon EMR 6.0.0을 사용하여 도커와 함께 Spark 애플리케이션 실행을 참조하십시오.

  • Hive LLAP 지원 - Hive는 이제 향상된 쿼리 성능을 위해 LLAP 실행 모드를 지원합니다. 자세한 내용은 Hive LLAP 사용을 참조하십시오.

변경 사항, 향상된 기능 및 해결된 문제

  • Amazon Linux

    • Amazon Linux 2는 EMR 6.x 릴리스 시리즈의 운영 체제입니다.

    • systemd는 Amazon Linux 1에서 사용되는 upstart 대신 서비스 관리에 사용됩니다.

  • Java Development Kit(JDK)

    • Coretto JDK 8은 EMR 6.x 릴리스 시리즈의 기본 JDK입니다.

  • Scala

    • Scala 2.12는 Apache Spark 및 Apache Livy와 함께 사용됩니다.

  • Python 3

    • Python 3은 이제 EMR에서 Python의 기본 버전입니다.

  • YAR의 노드 레이블

    • Amazon EMR 6.x 릴리스 시리즈부터 YARN 노드 레이블 기능은 기본적으로 비활성화되어 있습니다. 애플리케이션 마스터 프로세스는 기본적으로 코어 및 작업 노드 모두에서 실행할 수 있습니다. yarn.node-labels.enabledyarn.node-labels.am.default-node-label-expression 속성을 구성하여 YARN 노드 레이블 기능을 활성화할 수 있습니다. 자세한 내용은 마스터, 코어 및 작업 노드 이해를 참조하십시오.

알려진 문제

  • PySpark, SparkR 및 spark-shell을 포함한 Spark 대화형 셸은 도커를 추가 라이브러리와 함께 사용하는 것을 지원하지 않습니다.

  • Amazon EMR 버전 6.0.0에서 Python 3를 사용하려면 yarn.nodemanager.env-whitelistPATH를 추가해야 합니다.

  • AWS Glue 데이터 카탈로그를 Hive용 메타스토어로 사용하는 경우 Live Long and Process(LLAP) 기능이 지원되지 않습니다.

  • Spark 및 도커 통합과 함께 Amazon EMR 6.0.0을 사용하는 경우 도커 런타임으로 Spark 작업을 제출할 때 실패를 방지하려면 동일한 인스턴스 유형과 동일한 양의 EBS 볼륨으로 클러스터의 인스턴스를 구성해야 합니다.

  • Amazon EMR 6.0.0에서는 Amazon S3 스토리지 모드의 HBase가 HBASE-24286 문제의 영향을 받습니다. 기존 S3 데이터를 사용하여 클러스터를 생성하면 HBase 마스터를 초기화할 수 없습니다.

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    참고

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

6.0.0 구성 요소 버전

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. AWS는 Amazon EMR에서 커뮤니티 릴리스를 최대한 빨리 제공할 수 있도록 노력하고 있습니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어, 버전 2.2의 myapp-component라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스 버전에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2로 나열됩니다.

구성 요소 버전 설명
aws-sagemaker-spark-sdk 1.2.6 Amazon SageMaker Spark SDK
emr-ddb 4.14.0 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies 3.0.0 편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis 3.5.0 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-s3-dist-cp 2.14.0 Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select 1.5.0 EMR S3Select 커넥터
emrfs 2.39.0 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터.
ganglia-monitor 3.7.2 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector 3.7.2 Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web 3.7.1 Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client 3.2.1-amzn-0 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode 3.2.1-amzn-0 블록을 저장하는 HDFS 노드 수준 서비스
hadoop-hdfs-library 3.2.1-amzn-0 HDFS 명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode 3.2.1-amzn-0 파일 이름 및 블록 위치를 추적하는 HDFS 서비스
hadoop-hdfs-journalnode 3.2.1-amzn-0 HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스
hadoop-httpfs-server 3.2.1-amzn-0 HDFS 작업에 대한 HTTP 엔드포인트
hadoop-kms-server 3.2.1-amzn-0 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버
hadoop-mapred 3.2.1-amzn-0 MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리
hadoop-yarn-nodemanager 3.2.1-amzn-0 개별 노드의 컨테이너를 관리하는 YARN 서비스
hadoop-yarn-resourcemanager 3.2.1-amzn-0 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스
hadoop-yarn-timeline-server 3.2.1-amzn-0 YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스
hbase-hmaster 2.2.3 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스
hbase-region-server 2.2.3 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스
hbase-client 2.2.3 HBase 명령줄 클라이언트
hbase-rest-server 2.2.3 HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스
hbase-thrift-server 2.2.3 HBase에 Thrift 엔드포인트를 제공하는 서비스
hcatalog-client 3.1.2-amzn-0 hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server 3.1.2-amzn-0 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스
hcatalog-webhcat-server 3.1.2-amzn-0 HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트
hive-client 3.1.2-amzn-0 Hive 명령줄 클라이언트
hive-hbase 3.1.2-amzn-0 Hive-hbase 클라이언트
hive-metastore-server 3.1.2-amzn-0 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스
hive-server2 3.1.2-amzn-0 Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hudi 0.5.0-incubating-amzn-1 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크.
hudi-presto 0.5.0-incubating-amzn-1 Hudi로 Presto를 실행하기 위한 번들 라이브러리.
hue-server 4.4.0 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
jupyterhub 1.0.0 Jupyter 노트북용 다중 사용자 서버
livy-server 0.6.0-incubating Apache Spark와 상호작용하기 위한 REST 인터페이스
nginx 1.12.1 HTTP인 nginx [engine x] 및 역방향 프록시 서버
mxnet 1.5.1 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mariadb-server 5.5.64 이상 MariaDB 데이터베이스 서버.
nvidia-cuda 9.2.88 Nvidia 드라이버와 Cuda 도구 키트
oozie-client 5.1.0 Oozie 명령줄 클라이언트
oozie-server 5.1.0 Oozie 워크플로 요청을 수락하는 서비스
opencv 3.4.0 오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library 5.0.0-HBase-2.0 서버 및 클라이언트의 phoenix 라이브러리
phoenix-query-server 5.0.0-HBase-2.0 Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버
presto-coordinator 0.230 presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker 0.230 여러 쿼리를 실행하는 서비스.
presto-client 0.230 Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
r 3.4.3 통계 컴퓨팅용 R 프로젝트
spark-client 2.4.4 Spark 명령줄 클라이언트.
spark-history-server 2.4.4 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn 2.4.4 YARN용 인 메모리 실행 엔진.
spark-yarn-slave 2.4.4 YARN 슬레이브에서 필요한 Apache Spark 라이브러리.
tensorflow 1.14.0 TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다.
tez-on-yarn 0.9.2 tez YARN 애플리케이션 및 라이브러리.
webserver 2.4.41 이상 Apache HTTP 서버.
zeppelin-server 0.9.0-SNAPSHOT 대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server 3.4.14 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client 3.4.14 ZooKeeper 명령줄 클라이언트.

6.0.0 구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.

emr-6.0.0 분류
분류 설명

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

container-executor

하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다.

container-log4j

하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

emrfs-site

EMRFS 설정을 변경합니다.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

hbase

Apache HBase에 대한 EMR 큐레이트 설정입니다.

hbase-env

HBase 환경의 값을 변경합니다.

hbase-log4j

HBase hbase-log4j.properties 파일의 값을 변경합니다.

hbase-metrics

HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

hbase-policy

HBase hbase-policy.xml 파일의 값을 변경합니다.

hbase-site

HBase hbase-site.xml 파일의 값을 변경합니다.

hdfs-encryption-zones

HDFS 암호화 영역을 구성합니다.

hdfs-env

HDFS 환경의 값을 변경합니다.

hdfs-site

HDFS hdfs-site.xml의 값을 변경합니다.

hcatalog-env

HCatalog 환경의 값을 변경합니다.

hcatalog-server-jndi

HCatalog jndi.properties 환경의 값을 변경합니다.

hcatalog-server-proto-hive-site

HCatalog proto-hive-site.xml의 값을 변경합니다.

hcatalog-webhcat-env

HCatalog WebHCat 환경의 값을 변경합니다.

hcatalog-webhcat-log4j2

HCatalog WebHCat log4j2.properties의 값을 변경합니다.

hcatalog-webhcat-site

HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다.

hive

Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

hive-env

Hive 환경의 값을 변경합니다.

hive-exec-log4j2

Hive hive-exec-log4j2.properties 파일의 값을 변경합니다.

hive-llap-daemon-log4j2

Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다.

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

hue-ini

Hue ini 파일의 값을 변경합니다.

httpfs-env

HTTPFS 환경의 값을 변경합니다.

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

hadoop-kms-env

하둡 KMS 환경의 값을 변경합니다.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

jupyter-notebook-conf

Jupyter 노트북의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

jupyter-hub-conf

JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다.

jupyter-s3-conf

Jupyter 노트북 S3 지속성 구성

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

livy-env

Livy 환경의 값을 변경합니다.

livy-log4j

Livy log4j.properties 설정을 변경합니다.

mapred-env

MapReduce 애플리케이션 환경의 값을 변경합니다.

mapred-site

MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다.

oozie-env

Oozie 환경의 값을 변경합니다.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

presto-log

Presto log.properties 파일의 값을 변경합니다.

presto-config

Presto config.properties 파일의 값을 변경합니다.

presto-암호-인증자

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

ranger-kms-dbks-site

Ranger KMS에서 dbks-site.xml 파일의 값을 변경합니다.

ranger-kms-site

Ranger KMS에서 ranger-kms-site.xml 파일의 값을 변경합니다.

ranger-kms-env

Ranger KMS 환경의 값을 변경합니다.

ranger-kms-log4j

Ranger KM에서 kms-log4j.properties 파일의 값을 변경합니다.

ranger-kms-db-ca

Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다.

recordserver-env

EMR RecordServer 환경의 값을 변경합니다.

recordserver-conf

EMR RecordServer의 erver.properties 파일의 값을 변경합니다.

recordserver-log4j

EMR RecordServer의 log4j.properties 파일의 값을 변경합니다.

spark

Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

spark-env

the Spark 환경의 값을 변경합니다.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

spark-log4j

Spark log4j.properties 파일의 값을 변경합니다.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

yarn-env

YARN 환경의 값을 변경합니다.

yarn-site

YARN yarn-site.xml 파일의 값을 변경합니다.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

zookeeper-config

ZooKeeper zoo.cfg 파일의 값을 변경합니다.

zookeeper-log4j

ZooKeeper log4j.properties 파일의 값을 변경합니다.