Amazon EMR 릴리스 5.33.1 - Amazon EMR

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon EMR 릴리스 5.33.1

5.33.1 애플리케이션 버전

이 릴리스에서 지원되는 애플리케이션은 Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin, ZooKeeper입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.

애플리케이션 버전 정보
emr-5.33.1 emr-5.33.0 emr-5.32.1 emr-5.32.0
AWS 자바용 SDK 1.11.9701.11.9701.11.8901.11.890
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Scala 2.11.122.11.122.11.122.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.12.11.12.11.11.21.11.2
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.131.4.131.4.13
HCatalog2.3.72.3.72.3.72.3.7
Hadoop2.10.12.10.12.10.12.10.1
Hive2.3.72.3.72.3.72.3.7
Hudi0.7.0-amzn-10.7.0-amzn-10.6.0-amzn-00.6.0-amzn-0
Hue4.9.04.9.04.8.04.8.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.02.1.02.1.02.1.0
JupyterHub1.2.21.2.21.1.01.1.0
Livy0.7.00.7.00.7.00.7.0
MXNet1.7.01.7.01.7.01.7.0
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.2.05.2.05.2.0
Phoenix4.14.34.14.34.14.34.14.3
Pig0.17.00.17.00.17.00.17.0
Presto0.245.10.245.10.240.10.240.1
Spark2.4.72.4.72.4.72.4.7
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.4.12.3.12.3.1
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL) - - - -
Zeppelin0.9.00.9.00.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

5.33.1 릴리스 정보

다음 릴리스 정보에는 Amazon EMR 릴리스 5.33.0/5.33.1에 대한 정보가 포함됩니다. 변경 사항은 5.32.0에 관련됩니다.

최초 릴리스 날짜: 2021년 4월 19일

최종 업데이트 날짜: 2021년 8월 9일

업그레이드
  • Amazon Glue 커넥터를 버전 1.15.0으로 업그레이드함

  • 1.11.970 AWS SDK for Java 버전으로 업그레이드되었습니다.

  • EmrFS를 버전 2.46.0으로 업그레이드함

  • EMR Goodies를 버전 2.14.0으로 업그레이드함

  • EMR Record Server를 버전 1.9.0으로 업그레이드함

  • EMR S3 Dist CP를 버전 2.18.0으로 업그레이드함

  • EMR Secret Agent를 버전 1.8.0으로 업그레이드함

  • Flink를 버전 1.12.1로 업그레이드함

  • Hadoop을 버전 2.10.1-amzn-1로 업그레이드함

  • Hive를 버전 2.3.7-amzn-4로 업그레이드함

  • Hudi를 버전 0.7.0으로 업그레이드함

  • Hue를 버전 4.9.0으로 업그레이드함

  • OpenCV를 버전 4.5.0으로 업그레이드함

  • Presto를 버전 0.245.1-amzn-0으로 업그레이드함

  • R을 버전 4.0.2로 업그레이드함

  • Spark를 버전 2.4.7-amzn-1로 업그레이드함

  • 버전 2.4.1로 업그레이드 TensorFlow

  • Zeppelin을 버전 0.9.0으로 업그레이드함

변경 사항, 향상된 기능 및 해결된 문제
  • 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.

  • Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.

  • 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.

  • SPARK-29683. Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.

  • YARN-9011. 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.

  • Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.

  • Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.

  • 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.

  • Apache YARN 타임라인 서버 버전 1 및 1.5 성능 문제를 해결하도록 클러스터 구성

    Apache YARN 타임라인 서버 버전 1 및 1.5는 매우 자주 사용되는 대규모 EMR 클러스터, 특히 Amazon EMR의 기본 설정인 yarn.resourcemanager.system-metrics-publisher.enabled=true에서 성능 문제를 일으킬 수 있습니다. 오픈 소스 YARN 타임라인 서버 v2는 YARN 타임라인 서버 확장성과 관련된 성능 문제를 해결했습니다.

    이 문제의 다른 해결 방법은 다음과 같습니다.

    • yarn.resourcemanager를 구성합니다. system-metrics-publisher.enabled=false (yarn-site.xml)

    • 아래 설명에 따라 클러스터를 생성할 때 이 문제를 해결하는 수정 사항을 활성화합니다.

    다음 Amazon EMR 릴리스에는 이 YARN 타임라인 서버 성능 문제에 대한 수정 사항이 포함되어 있습니다.

    EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

    위에 지정된 Amazon EMR 릴리스에서 수정 사항을 활성화하려면 aws emr create-cluster 명령 파라미터(--configurations file://./configurations.json)를 사용하여 전달되는 구성 JSON 파일에서 이러한 속성을 true로 설정합니다. 또는 재구성 콘솔 UI를 사용하여 수정 사항을 활성화할 수도 있습니다.

    configurations.json 파일 내용 예제:

    [ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
  • 이제 Spark 삽입 쿼리를 위해 Hive 메타스토어에서 파티션 위치를 가져올 때 Spark 런타임이 더 빨라졌습니다.

  • 업그레이드된 구성 요소 버전. 구성 요소 버전 목록은 이 안내서에서 Amazon EMR 릴리스 정보를 참조하세요.

  • 각각의 새 클러스터에 AWS Java SDK 번들을 설치했습니다. 개별 구성 요소 jar 대신 모든 서비스 SDK와 해당 종속 항목을 포함하는 단일 jar입니다. 자세한 내용은 Java SDK Bundled Dependency를 참조하세요.

  • 이전 Amazon EMR 릴리스에서 Managed Scaling 문제를 수정하고 애플리케이션 장애 비율을 크게 줄일 수 있도록 개선했습니다.

  • 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN arn:aws:s3:::amazonlinux-2-repos-$region/*을 정책에 추가해야 합니다($region을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼의 이 항목을 참조하십시오. 공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다.

새로운 기능
  • Amazon EMR은 공유 데이터 레이크에 대한 액세스를 쉽게 관리할 수 있는 Amazon S3의 기능인 Amazon S3 액세스 포인트를 지원합니다. Amazon S3 액세스 포인트 별칭을 사용하면 Amazon EMR에서 대규모 데이터 액세스를 간소화할 수 있습니다. Amazon EMR을 사용할 수 있는 모든 AWS 지역에서 추가 비용 없이 Amazon S3 액세스 포인트를 모든 버전의 Amazon EMR과 함께 사용할 수 있습니다. Amazon S3 액세스 포인트 및 액세스 포인트 별칭에 대한 자세한 내용은 Amazon S3 사용 설명서에서 액세스 포인트에 버킷 스타일 별칭 사용을 참조하세요.

  • Amazon EMR-5.33에서는 새로운 Amazon EC2 인스턴스 유형(c5a, c5ad, c6gn, c6gd, m6gd, d3, d3en, m5zn, r5b, r6gd)을 지원합니다. 지원되는 인스턴스 유형을 참조하세요.

알려진 문제
  • 이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨]. Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

    이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

    명령줄에서 ulimit를 명시적으로 설정합니다.
    1. /etc/systemd/system/instance-controller.service를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. 재시작 InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    부트스트랩 작업(BA)을 사용하여 ulimit 설정

    클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Amazon EMR 6.3.0 및 6.2.0 프라이빗 서브넷 클러스터의 경우 Ganglia 웹 UI에 액세스할 수 없습니다. '액세스 거부됨(403)' 오류가 발생합니다. 스파크, 휴, 제플린, 리비 JupyterHub, 테즈 등 다른 웹 UI는 정상적으로 작동하고 있습니다. 퍼블릭 서브넷 클러스터에서 Ganglia 웹 UI 액세스도 정상적으로 작동합니다. 이 문제를 해결하려면 sudo systemctl restart httpd를 사용하여 프라이머리 노드에서 httpd 서비스를 다시 시작합니다. 이 문제는 Amazon EMR 6.4.0에서 수정되었습니다.

  • 중요

    Amazon Linux 또는 Amazon Linux 2 Amazon Machine Image(AMI)를 실행하는 EMR 클러스터는 기본 Amazon Linux 동작을 사용하며, 재부팅이 필요한 중요한 핵심 커널 업데이트를 자동으로 다운로드하여 설치하지는 않습니다. 이는 기본 Amazon Linux AMI를 실행하는 다른 Amazon EC2 인스턴스와 동일한 동작입니다. Amazon EMR 릴리스가 출시된 후 재부팅이 필요한 새로운 Amazon Linux 소프트웨어 업데이트(예: 커널, NVIDIA, CUDA 업데이트)를 사용할 수 있게 되면 기본 AMI를 실행하는 EMR 클러스터 인스턴스는 해당 업데이트를 자동으로 다운로드하여 설치하지 않습니다. 커널 업데이트를 받으려면 최신 Amazon Linux AMI를 사용하도록 Amazon EMR AMI를 사용자 지정할 수 있습니다.

  • AWS Ranger 통합 옵션을 지정하는 보안 구성을 생성하기 위한 콘솔 지원은 현재 이 지역에서 지원되지 않습니다. GovCloud 보안 구성은 CLI를 사용하여 수행할 수 있습니다. Amazon EMR 관리 안내서에서 EMR 보안 구성 생성을 참조하세요.

  • 범위가 지정된 관리형 정책: AWS 모범 사례에 따라 Amazon EMR은 더 이상 사용되지 않는 정책을 대체하기 위해 v2 EMR 범위의 기본 관리형 정책을 도입했습니다. Amazon EMR 관리형 정책을 참조하세요.

  • Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0~5.36.0 및 6.2.0~6.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.

    • 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.

    • 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 s3://bucket/table/p=as3://bucket/table/p=a b의 접두사입니다.

    • 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 / 문자(U+002F)보다 작습니다. 예를 들어 s3://bucket/table/p=a b에서 a와 b 사이에 있는 공백 문자(U+0020)가 이 카테고리에 속합니다. !"#$%&‘()*+,-와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 UTF-8 인코딩 테이블 및 유니코드 문자를 참조하세요.

    이 문제를 해결하려면 spark-defaults 분류에서 spark.sql.sources.fastS3PartitionDiscovery.enabled 구성을 false로 설정합니다.

5.33.1 구성 요소 버전

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어, 버전 2.2의 myapp-component라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2로 나열됩니다.

구성 요소 버전 설명
aws-sagemaker-spark-sdk1.4.1아마존 SageMaker 스파크 SDK
emr-ddb4.16.0하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies2.14.0편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis3.5.0하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-notebook-env1.2.0Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경
emr-s3-dist-cp2.18.0Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select1.6.0EMR S3Select 커넥터
emrfs2.46.0하둡 에코시스템 애플리케이션용 Amazon S3 커넥터.
flink-client1.12.1Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션
flink-jobmanager-config1.12.1아파치 플링크용 EMR 노드의 리소스 관리 JobManager
ganglia-monitor3.7.2하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector3.7.2Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web3.7.1Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client2.10.1-amzn-1.1'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode2.10.1-amzn-1.1블록을 저장하는 HDFS 노드 수준 서비스
hadoop-hdfs-library2.10.1-amzn-1.1HDFS 명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode2.10.1-amzn-1.1파일 이름 및 블록 위치를 추적하는 HDFS 서비스
hadoop-hdfs-journalnode2.10.1-amzn-1.1HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스
hadoop-httpfs-server2.10.1-amzn-1.1HDFS 작업에 대한 HTTP 엔드포인트
hadoop-kms-server2.10.1-amzn-1.1하둡 API 기반 암호화 키 관리 서버. KeyProvider
hadoop-mapred2.10.1-amzn-1.1MapReduce 애플리케이션 실행을 위한 실행 엔진 라이브러리. MapReduce
hadoop-yarn-nodemanager2.10.1-amzn-1.1개별 노드의 컨테이너를 관리하는 YARN 서비스
hadoop-yarn-resourcemanager2.10.1-amzn-1.1클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스
hadoop-yarn-timeline-server2.10.1-amzn-1.1YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스
hbase-hmaster1.4.13리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스
hbase-region-server1.4.13한 개 이상의 HBase 리전에 서비스를 제공하는 서비스
hbase-client1.4.13HBase 명령줄 클라이언트
hbase-rest-server1.4.13HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스
hbase-thrift-server1.4.13HBase에 Thrift 엔드포인트를 제공하는 서비스
hcatalog-client2.3.7-amzn-4hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server2.3.7-amzn-4분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스
hcatalog-webhcat-server2.3.7-amzn-4HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트
hive-client2.3.7-amzn-4Hive 명령줄 클라이언트
hive-hbase2.3.7-amzn-4Hive-hbase 클라이언트
hive-metastore-server2.3.7-amzn-4하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스
hive-server22.3.7-amzn-4Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hudi0.7.0-amzn-1짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크.
hudi-spark0.7.0-amzn-1Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리.
hudi-presto0.7.0-amzn-1Hudi로 Presto를 실행하기 위한 번들 라이브러리.
hue-server4.9.0하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
jupyterhub1.2.2Jupyter Notebook용 다중 사용자 서버
livy-server0.7.0-incubatingApache Spark와 상호작용하기 위한 REST 인터페이스
nginx1.12.1HTTP인 nginx [engine x] 및 역방향 프록시 서버
mahout-client0.13.0머신 러닝을 위한 라이브러리.
mxnet1.7.0유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mariadb-server5.5.68+MySQL 데이터베이스 서버.
nvidia-cuda10.1.243Nvidia 드라이버와 Cuda 도구 키트
oozie-client5.2.0Oozie 명령줄 클라이언트
oozie-server5.2.0Oozie 워크플로 요청을 수락하는 서비스
opencv4.5.0오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library4.14.3-HBase-1.4서버 및 클라이언트의 phoenix 라이브러리
phoenix-query-server4.14.3-HBase-1.4Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버
presto-coordinator0.245.1-amzn-0presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker0.245.1-amzn-0여러 쿼리를 실행하는 서비스.
presto-client0.245.1-amzn-0Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
pig-client0.17.0Pig 명령줄 클라이언트.
r4.0.2통계 컴퓨팅용 R 프로젝트
ranger-kms-server1.2.0Apache Ranger 키 관리 시스템
spark-client2.4.7-amzn-1.1Spark 명령줄 클라이언트.
spark-history-server2.4.7-amzn-1.1완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn2.4.7-amzn-1.1YARN용 인 메모리 실행 엔진.
spark-yarn-slave2.4.7-amzn-1.1YARN 슬레이브에서 필요한 Apache Spark 라이브러리.
sqoop-client1.4.7Apache Sqoop 명령줄 클라이언트.
tensorflow2.4.1TensorFlow 고성능 수치 계산을 위한 오픈 소스 소프트웨어 라이브러리.
tez-on-yarn0.9.2tez YARN 애플리케이션 및 라이브러리.
webserver2.4.25+Apache HTTP 서버.
zeppelin-server0.9.0대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server3.4.14구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client3.4.14ZooKeeper 커맨드 라인 클라이언트.

5.33.1 구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 정보는 애플리케이션 구성을 참조하세요.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 정보는 실행 중인 클러스터에서 인스턴스 그룹 재구성을 참조하세요.

emr-5.33.1 분류
분류 설명 재구성 작업

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

Restarts the ResourceManager service.

container-executor

하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다.

Not available.

container-log4j

하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다.

Not available.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Docker 관련 설정을 변경합니다.

Not available.

emrfs-site

EMRFS 설정을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

flink-conf.yaml 설정을 변경합니다.

Restarts Flink history server.

flink-log4j

Flink log4j.properties 설정을 변경합니다.

Restarts Flink history server.

flink-log4j-session

Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다.

Not available.

flink-log4j-cli

Flink log4j-cli.properties 설정을 변경합니다.

Restarts Flink history server.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

Not available.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

Not available.

hbase

Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다.

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

HBase 환경의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

HBase hbase-log4j.properties 파일의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

HBase hbase-policy.xml 파일의 값을 변경합니다.

Not available.

hbase-site

HBase hbase-site.xml 파일의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

HDFS 암호화 영역을 구성합니다.

Should not be reconfigured.

hdfs-site

HDFS hdfs-site.xml의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

HCatalog 환경의 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

HCatalog jndi.properties 환경의 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

proto-hive-sitehCatalog의.xml에서 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

HCatalog WebHCat 환경의 값을 변경합니다.

Restarts Hive WebHCat Server.

hcatalog-webhcat-log4j2

HCatalog WebHCat log4j2.properties의 값을 변경합니다.

Restarts Hive WebHCat Server.

hcatalog-webhcat-site

HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다.

Restarts Hive WebHCat Server.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

Not available.

hive-env

Hive 환경의 값을 변경합니다.

Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

하이브의 hive-exec-log 4j2.properties 파일에서 값을 변경하십시오.

Restarts HiveServer2 and HiveMetastore.

hive-llap-daemon-log4j2

하이브의 4j2.properties 파일에서 값을 변경하십시오. llap-daemon-log

Not available.

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

Not available.

hue-ini

Hue ini 파일의 값을 변경합니다.

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

HTTPFS 환경의 값을 변경합니다.

Restarts Hadoop Httpfs service.

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

Not available.

hadoop-kms-env

하둡 KMS 환경의 값을 변경합니다.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

Not available.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Hudi 환경의 값을 변경합니다.

Not available.

jupyter-notebook-conf

Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

Not available.

jupyter-hub-conf

의 jupyterhub_config.py 파일에서 JupyterHubs 값을 변경하십시오.

Not available.

jupyter-s3-conf

Jupyter Notebook S3 지속성 구성

Not available.

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

Not available.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

Restarts Livy Server.

livy-env

Livy 환경의 값을 변경합니다.

Restarts Livy Server.

livy-log4j

Livy log4j.properties 설정을 변경합니다.

Restarts Livy Server.

mapred-env

MapReduce 애플리케이션 환경에서 값을 변경합니다.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

MapReduce 애플리케이션의 mapred-site.xml 파일에서 값을 변경합니다.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Oozie 환경의 값을 변경합니다.

Restarts Oozie.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

Restarts Oozie.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

Restarts Oozie.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

Not available.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

Not available.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

Restarts Phoenix-QueryServer.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

Not available.

pig-env

Pig 환경에서 값을 변경합니다.

Not available.

pig-properties

Pig pig.properties 파일의 값을 변경합니다.

Restarts Oozie.

pig-log4j

Pig log4j.properties 파일의 값을 변경합니다.

Not available.

presto-log

Presto log.properties 파일의 값을 변경합니다.

Restarts Presto-Server.

presto-config

Presto config.properties 파일의 값을 변경합니다.

Restarts Presto-Server.

presto-password-authenticator

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

Not available.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

Restarts Presto-Server.

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

Not available.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

Not available.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

Not available.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

Restarts Presto-Server.

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

Not available.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

Not available.

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

Not available.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

Not available.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

Not available.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

Not available.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

Not available.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

Not available.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

Not available.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

Not available.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

Not available.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

Not available.

ranger-kms-dbks-site

Ranger KMS에서 dbks-site.xml 파일의 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-site

레인저 ranger-kms-site KMS의.xml 파일에서 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-env

Ranger KMS 환경의 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-log4j

Ranger KM에서 kms-log4j.properties 파일의 값을 변경합니다.

Not available.

ranger-kms-db-ca

Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다.

Not available.

recordserver-env

EMR RecordServer 환경에서 값을 변경합니다.

Restarts EMR record server.

recordserver-conf

RecordServerEMR의 erver.properties 파일에서 값을 변경합니다.

Restarts EMR record server.

recordserver-log4j

RecordServerEMR의 log4j.properties 파일에서 값을 변경합니다.

Restarts EMR record server.

spark

Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다.

This property modifies spark-defaults. See actions there.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-env

the Spark 환경의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

Not available.

spark-log4j

Spark log4j.properties 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

sqoop-env

Sqoop 환경의 값을 변경합니다.

Not available.

sqoop-oraoop-site

스쿱의 oraoop-site.xml 파일에서 값을 변경하세요. OraOop

Not available.

sqoop-site

Sqoop sqoop-site.xml 파일의 값을 변경합니다.

Not available.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

Restarts Oozie.

yarn-env

YARN 환경의 값을 변경합니다.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

YARN yarn-site.xml 파일의 값을 변경합니다.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

Restarts Zeppelin.

zeppelin-site

zeppelin-site.xml에서 구성 설정을 변경합니다.

Restarts Zeppelin.

zookeeper-config

zoo.cfg 파일에서 ZooKeeper 값을 변경합니다.

Restarts Zookeeper server.

zookeeper-log4j

ZooKeeperlog4j.properties 파일에서 값을 변경합니다.

Restarts Zookeeper server.