아마존 EMR 릴리스 6.2.0 - 아마존 EMR

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

아마존 EMR 릴리스 6.2.0

6.2.0 애플리케이션 버전

이 릴리스에서 지원되는 애플리케이션은 Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, PrestoSQL, Spark, Sqoop, TensorFlow, Tez, Zeppelin, ZooKeeper입니다.

아래 표에는 이번 Amazon EMR 릴리스에서 사용 가능한 애플리케이션 EMR 버전과 이전 세 개의 Amazon 릴리스 (해당하는 경우) 의 애플리케이션 버전이 나열되어 있습니다.

각 Amazon EMR 릴리스의 애플리케이션 버전에 대한 포괄적인 내역은 다음 주제를 참조하십시오.

애플리케이션 버전 정보
emr-6.2.0 emr-6.1.1 emr-6.1.0 emr-6.0.1
AWS SDKJava의 경우 1.11.8801.11.8281.11.8281.11.711
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Scala 2.12.102.12.102.12.102.12.10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.21.11.01.11.0 -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.6-amzn-02.2.52.2.52.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.6.0-amzn-10.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-1
Hue4.8.04.7.14.7.14.4.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.0 - - -
JupyterHub1.1.01.1.01.1.01.0.0
Livy0.7.00.7.00.7.00.6.0
MXNet1.7.01.6.01.6.01.5.1
Mahout - - - -
Oozie5.2.05.2.05.2.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.00.17.0 -
Presto0.238.30.2320.2320.230
Spark3.0.13.0.03.0.02.4.4
Sqoop1.4.71.4.71.4.7 -
TensorFlow2.3.12.1.02.1.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)343338338 -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

6.2.0 릴리스 정보

다음 릴리스 노트에는 Amazon EMR 릴리스 6.2.0에 대한 정보가 포함되어 있습니다. 변경 사항은 6.1.0에 관련됩니다.

최초 릴리스 날짜: 2020년 12월 9일

최종 업데이트 날짜: 2021년 10월 4일

지원되는 애플리케이션
  • AWS SDK for Java 버전 1.11.828

  • emr-record-server 버전 1.7.0

  • Flink 버전 1.11.2

  • Ganglia 버전 3.7.2

  • Hadoop 버전 3.2.1-amzn-1

  • HBase버전 2.2.6-amzn-0

  • HBase-오퍼레이터 도구 1.0.0

  • HCatalog버전 3.1.2-amzn-0

  • Hive 버전 3.1.2-amzn-3

  • Hudi 버전 0.6.0-amzn-1

  • Hue 버전 4.8.0

  • JupyterHub 버전 1.1.0

  • Livy 버전 0.7.0

  • MXNet버전 1.7.0

  • Oozie 버전 5.2.0

  • Phoenix 버전 5.0.0

  • Pig 버전 0.17.0

  • Presto 버전 0.238.3-amzn-1

  • 프레스토 버전 3.4.3 SQL

  • Spark 버전 3.0.1-amzn-0

  • spark-rapids 0.2.0

  • TensorFlow 버전 2.3.1

  • Zeppelin 버전 0.9.0-preview1

  • Zookeeper 버전 3.4.14

  • 커넥터 및 드라이버: DynamoDB 커넥터 4.16.0

새로운 기능
  • HBase: 커밋 단계에서 이름 변경을 제거하고 영구 HFile 추적을 추가했습니다. Amazon EMR 릴리스 가이드의 영구 HFile 추적을 참조하십시오.

  • HBase: 백포트: 압축 시 블록을 강제로 캐시하도록 하는 구성을 생성하십시오.

  • PrestoDB: 동적 파티션 정리 기능이 개선되었습니다. 규칙 기반 조인 재정렬은 파티셔닝되지 않은 데이터에서 작동합니다.

  • 범위가 지정된 관리형 정책: AWS 모범 사례에 맞게 EMR Amazon은 더 이상 사용되지 않을 정책을 대체하는 v2 EMR 범위의 기본 관리형 정책을 도입했습니다. Amazon EMR 관리형 정책을 참조하십시오.

  • 인스턴스 메타데이터 서비스 (IMDS) V2 지원 상태: Amazon EMR 6.2 이상의 경우 Amazon EMR 구성 요소는 모든 IMDSv2 IMDS 호출에 사용됩니다. 애플리케이션 코드에서 IMDS 호출하는 경우IMDSv2, IMDSv1 및 를 둘 다 사용하거나 보안 강화용으로만 IMDS IMDSv2 사용하도록 구성할 수 있습니다. Amazon EMR 6.x 이전 IMDSv1 릴리스에서 비활성화하면 클러스터 시작 실패가 발생합니다.

변경 사항, 향상된 기능 및 해결된 문제
  • 이 릴리스에서는 Amazon EMR Scaling이 클러스터를 성공적으로 확장/축소하지 못하거나 애플리케이션 장애를 일으킬 때 발생하는 문제를 수정하기 위한 릴리스입니다.

  • Amazon EMR 온 클러스터 데몬이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 데몬이 노드의 상태 데이터를 내부 Amazon EMR 구성 요소에 전달할 수 없었기 때문에 발생했습니다.

  • IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 데몬이 개선되어 조정 작업 중 안정성이 향상되었습니다.

  • SPARK-29683. Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.

  • YARN-9011. 클러스터를 확장 또는 축소하려고 할 때 YARN 해지 시 경쟁 상태로 인해 작업 실패가 발생하는 문제를 수정했습니다.

  • Amazon EMR 온 클러스터 데몬과YARN/사이에서 노드 상태가 항상 일관되도록 하여 클러스터 조정 중 단계 또는 작업 실패 문제를 수정했습니다. HDFS

  • Kerberos 인증으로 활성화된 Amazon 클러스터에서 축소 및 단계 제출과 같은 EMR 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 온 클러스터 데몬이 Kerberos 티켓을 갱신하지 않았기 때문입니다. Kerberos 티켓은 기본 노드에서 HDFS YARN 실행되는/와 안전하게 통신하는 데 필요합니다.

  • 최신 Amazon EMR 릴리스에서는 Amazon 이전 AL2 버전에서 “최대 열린 파일 수” 한도가 낮아지는 문제가 해결되었습니다. EMR 아마존 EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상 버전에는 이제 더 높은 “열린 파일 수” 설정이 포함된 영구 수정 사항이 포함되어 있습니다.

  • Spark: Spark 런타임의 성능이 개선되었습니다.

알려진 문제
  • Amazon EMR 6.2에서는 6.2.0의 libinstance-controller-java /etc/cron.d/ 파일에 잘못된 권한이 설정되어 있습니다. EMR 파일의 권한이 644(-rw-r--r--)여야 하는 경우 645(-rw-r--r-x)입니다. 따라서 Amazon EMR 버전 6.2는 인스턴스 상태 로그를 기록하지 않으며 /emr/instance-logs 디렉토리는 비어 있습니다. 이 문제는 Amazon EMR 6.3.0 이상에서 수정되었습니다.

    이 문제를 해결하려면 클러스터 시작 시 다음 스크립트를 부트스트랩 작업으로 실행합니다.

    #!/bin/bash sudo chmod 644 /etc/cron.d/libinstance-controller-java
  • Amazon EMR 6.2.0 및 6.3.0 프라이빗 서브넷 클러스터의 경우 Ganglia 웹 UI에 액세스할 수 없습니다. '액세스 거부됨(403)' 오류가 발생합니다. 스파크, 휴UIs, 제플린, 리비, 테즈 등의 다른 웹은 정상적으로 작동하고 있습니다. JupyterHub 퍼블릭 서브넷 클러스터에서 Ganglia 웹 UI 액세스도 정상적으로 작동합니다. 이 문제를 해결하려면 sudo systemctl restart httpd를 사용하여 프라이머리 노드에서 httpd 서비스를 다시 시작합니다. 이 문제는 Amazon EMR 6.4.0에서 수정되었습니다.

  • Amazon EMR 6.2.0에서 httpd가 계속 실패하여 Ganglia를 사용할 수 없게 되는 문제가 있습니다. 'cannot connect to the server' 오류가 발생합니다. 이 문제를 안고 이미 실행 중인 클러스터를 SSH 수정하려면 클러스터 기본 노드로 이동하고 에 있는 파일에 줄을 Listen 80 추가하십시오. httpd.conf /etc/httpd/conf/httpd.conf 이 문제는 Amazon EMR 6.3.0에서 수정되었습니다.

  • HTTPD보안 구성을 사용하는 경우 EMR 6.2.0 클러스터에서 실패합니다. 이로 인해 Ganglia 웹 애플리케이션 사용자 인터페이스를 사용할 수 없습니다. Ganglia 웹 애플리케이션 사용자 인터페이스에 액세스하려면 클러스터의 프라이머리 노드에 있는 /etc/httpd/conf/httpd.conf 파일에 Listen 80을 추가합니다. 클러스터 연결에 대한 자세한 내용은 다음을 사용하여 주 노드에 연결을 참조하십시오SSH.

    EMR또한 보안 구성을 사용할 때 노트북은 EMR 6.2.0 클러스터와의 연결을 설정하지 못합니다. 노트북은 커널을 나열하지 못하고 Spark 작업을 제출하지 못합니다. EMR대신 Amazon의 다른 버전과 함께 EMR 노트북을 사용하는 것이 좋습니다.

  • 이전 버전에서는 “최대 열린 파일 수” 한도가 낮아집니다 AL2 [최신 릴리스에서 수정됨]. 아마존 EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 및 emr-6.2.0은 이전 버전의 리눅스 2 () 를 기반으로 합니다. 이 버전에는 아마존 클러스터를 기본값으로 생성할 때 “열린 파일 최대”에 대한 하한 설정이 있습니다. ofAmazon AL2 EMR AMI 아마존 EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상 버전에는 더 높은 “열린 파일 수” 설정이 포함된 영구 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본값은 “열린 파일 최대”에 대한 기본 ulimit 설정이 4096으로 설정되어 AMI 있으며, 이는 Linux 2의 65536개 파일 제한보다 낮습니다. latestAmazon AMI '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 EMR Amazon에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업 (BA) 스크립트가 있습니다.

    이 문제에 대한 영구 수정이 없는 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 인스턴스 컨트롤러 ulimit를 최대 65536개의 파일로 명시적으로 설정할 수 있습니다.

    명령줄에서 ulimit를 명시적으로 설정합니다.
    1. /etc/systemd/system/instance-controller.service를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. 재시작 InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    부트스트랩 작업(BA)을 사용하여 ulimit 설정

    클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • 중요

    Amazon EMR 6.1.0 및 6.2.0에는 모든 Hudi 삽입, 업데이트 및 삭제 작업에 심각한 영향을 미칠 수 있는 성능 문제가 포함되어 있습니다. Amazon EMR 6.1.0 또는 6.2.0에서 Hudi를 사용할 계획이라면 AWS 지원팀에 문의하여 패치가 적용된 Hudi를 구해야 합니다. RPM

  • 중요

    EMRAmazon Linux 또는 Amazon Linux 2 Amazon Machine Images (AMIs) 를 실행하는 클러스터는 기본 Amazon Linux 동작을 사용하며, 재부팅이 필요한 중요하고 중요한 커널 업데이트를 자동으로 다운로드하여 설치하지 않습니다. 이는 기본 Amazon Linux를 실행하는 다른 Amazon EC2 인스턴스와 동일한 AMI 동작입니다. Amazon EMR 릴리스가 출시된 후 재부팅이 필요한 새 Amazon Linux 소프트웨어 업데이트 (예: 커널NVIDIA, CUDA 업데이트) 가 제공되더라도 기본값을 실행하는 EMR 클러스터 인스턴스는 해당 업데이트를 자동으로 다운로드 및 AMI 설치하지 않습니다. 커널 업데이트를 받으려면 최신 Amazon Linux를 사용하도록 EMR AMI Amazon을 사용자 지정할 수 AMI 있습니다.

  • Amazon EMR 6.2.0 메이븐 아티팩트는 게시되지 않습니다. 향후 Amazon 릴리스와 함께 게시될 예정입니다EMR.

  • HBasestorefile 시스템 테이블을 사용한 영구 HFile 추적은 HBase 지역 복제 기능을 지원하지 않습니다. HBase지역 복제에 대한 자세한 내용은 타임라인 일관성이 유지되는 고가용성 읽기를 참조하십시오.

  • 아마존 EMR 6.x 및 EMR 5.x 하이브 버킷팅 버전 차이

    EMR5.x에서는 OOS 아파치 하이브 2를 사용하고, 6.x에서는 아파치 하이브 3을 사용합니다. EMR OOS 오픈 소스 Hive2는 버킷팅 버전 1을 사용하는 반면, 오픈 소스 Hive3은 버킷팅 버전 2를 사용합니다. Hive 2 (EMR5.x) 와 Hive 3 (6.x) 의 이러한 버킷팅 버전 차이는 Hive 버킷팅 해싱 기능이 다르다는 것을 의미합니다. EMR 아래 예제를 참조하십시오.

    다음 표는 각각 6.x와 5.x에서 만든 예제입니다. EMR EMR

    -- Using following LOCATION in EMR 6.x CREATE TABLE test_bucketing (id INT, desc STRING) PARTITIONED BY (day STRING) CLUSTERED BY(id) INTO 128 BUCKETS LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/'; -- Using following LOCATION in EMR 5.x LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';

    EMR6.x와 5.x에 동일한 데이터를 삽입합니다. EMR

    INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data'); INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');

    S3 위치를 확인하면 해싱 함수가 EMR 6.x (Hive 3) 와 5.x (Hive 2) 간에 다르기 때문에 버킷팅 파일 이름이 다른 것으로 나타납니다. EMR

    [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/ 2020-10-21 20:35:16 13 000025_0 2020-10-21 20:35:22 14 000121_0 [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/ 2020-10-21 20:32:07 13 000066_0 2020-10-21 20:32:51 14 000072_0

    6.x의 Hive에서 다음 명령을 실행하여 버전 차이를 확인할 수도 있습니다. CLI EMR 이 경우 버킷팅 버전 2가 반환됩니다.

    hive> DESCRIBE FORMATTED test_bucketing; ... Table Parameters: bucketing_version 2 ...
  • 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

    Amazon EMR 릴리스 5.20.0 이상에서 여러 기본 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 기간 실행한 후 규모 축소 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

    해결 방법:

    • SSH여러 기본 노드가 있는 EMR 클러스터의 주요 기본 노드의 hadoop 사용자입니다.

    • 다음 명령을 실행하여 hadoop 사용자의 Kerberos 티켓을 갱신합니다.

      kinit -kt <keytab_file> <principal>

      일반적으로 keytab 파일은 /etc/hadoop.keytab에 있으며, 보안 주체는 hadoop/<hostname>@<REALM> 양식입니다.

    참고

    이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

  • Spark와 Hive 파티션 위치 형식 지정을 사용하여 Amazon S3의 데이터를 읽고 Amazon EMR 릴리스 5.30.0 ~ 5.36.0 및 6.2.0 ~ 6.9.0에서 Spark를 실행하면 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.

    • 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.

    • 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 s3://bucket/table/p=as3://bucket/table/p=a b의 접두사입니다.

    • 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 값은 해당 문자 (U+002F) 보다 작은 UTF -8입니다. / 예를 들어 s3://bucket/table/p=a b에서 a와 b 사이에 있는 공백 문자(U+0020)가 이 카테고리에 속합니다. !"#$%&‘()*+,-와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 UTF-8 인코딩 테이블 및 유니코드 문자를 참조하십시오.

    이 문제를 해결하려면 spark-defaults 분류에서 spark.sql.sources.fastS3PartitionDiscovery.enabled 구성을 false로 설정합니다.

6.2.0 구성 요소 버전

Amazon이 이번 EMR 릴리스와 함께 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 다른 것들은 Amazon에서만 사용할 수 EMR 있으며 시스템 프로세스 및 기능용으로 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 가장 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 찾을 수 있는 최신 버전입니다. Amazon에서는 가능한 한 EMR 빨리 커뮤니티 릴리스를 제공합니다.

Amazon의 일부 구성 요소는 커뮤니티 EMR 버전과 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어 버전 2.2로 이름이 지정된 myapp-component 오픈 소스 커뮤니티 구성 요소가 여러 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 릴리스 버전은 로 2.2-amzn-2 나열됩니다.

구성 요소 버전 설명
aws-sagemaker-spark-sdk1.4.1아마존 SageMaker 스파크 SDK
emr-ddb4.16.0하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies3.1.0편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis3.5.0하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-notebook-env1.0.0Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경
emr-s3-dist-cp2.16.0Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select2.0.0EMRS3 셀렉트 커넥터
emrfs2.44.0하둡 에코시스템 애플리케이션용 Amazon S3 커넥터.
flink-client1.11.2Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션
flink-jobmanager-config1.11.2아파치 플링크용 EMR 노드의 리소스 관리 JobManager
ganglia-monitor3.7.2하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector3.7.2Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web3.7.1Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client3.2.1-amzn-2'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode3.2.1-amzn-2HDFS블록 저장을 위한 노드 수준 서비스.
hadoop-hdfs-library3.2.1-amzn-2HDFS명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode3.2.1-amzn-2HDFS파일 이름 및 블록 위치를 추적하는 서비스입니다.
hadoop-hdfs-journalnode3.2.1-amzn-2HDFSHA 클러스터의 Hadoop 파일 시스템 저널을 관리하는 서비스입니다.
hadoop-httpfs-server3.2.1-amzn-2HTTPHDFS운영을 위한 엔드포인트.
hadoop-kms-server3.2.1-amzn-2하둡 기반 암호화 키 관리 서버. KeyProvider API
hadoop-mapred3.2.1-amzn-2MapReduce 애플리케이션 실행을 위한 실행 엔진 라이브러리. MapReduce
hadoop-yarn-nodemanager3.2.1-amzn-2YARN개별 노드의 컨테이너를 관리하는 서비스입니다.
hadoop-yarn-resourcemanager3.2.1-amzn-2YARN클러스터 리소스 및 분산 애플리케이션을 할당하고 관리하기 위한 서비스입니다.
hadoop-yarn-timeline-server3.2.1-amzn-2응용 프로그램의 현재 및 과거 정보를 검색하는 YARN 서비스입니다.
hbase-hmaster2.2.6-amzn-0지역 조정 및 관리 명령 실행을 담당하는 HBase 클러스터를 위한 서비스입니다.
hbase-region-server2.2.6-amzn-0하나 이상의 HBase 지역에 서비스를 제공하는 서비스.
hbase-client2.2.6-amzn-0HBase명령줄 클라이언트.
hbase-rest-server2.2.6-amzn-0RESTfulHTTP엔드포인트를 제공하는 서비스. HBase
hbase-thrift-server2.2.6-amzn-0Thrift 엔드포인트를 제공하는 서비스. HBase
hcatalog-client3.1.2-amzn-3hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server3.1.2-amzn-3서비스 제공HCatalog, 분산 애플리케이션을 위한 테이블 및 스토리지 관리 계층.
hcatalog-webhcat-server3.1.2-amzn-3HTTP에 대한 REST 인터페이스를 제공하는 엔드포인트HCatalog.
hive-client3.1.2-amzn-3Hive 명령줄 클라이언트
hive-hbase3.1.2-amzn-3Hive-hbase 클라이언트
hive-metastore-server3.1.2-amzn-3하둡 작업을 위한 메타데이터를 저장하는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스입니다. SQL
hive-server23.1.2-amzn-3Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hudi0.6.0-amzn-1짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크.
hudi-presto0.6.0-amzn-1Hudi로 Presto를 실행하기 위한 번들 라이브러리.
hudi-prestosql0.6.0-amzn-1Hudi와 함께 Presto를 실행하기 위한 번들 라이브러리. SQL
hudi-spark0.6.0-amzn-1Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리.
hue-server4.8.0하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
jupyterhub1.1.0Jupyter Notebook용 다중 사용자 서버
livy-server0.7.0-incubatingREST아파치 스파크와 상호작용하기 위한 인터페이스
nginx1.12.1nginx [엔진 x] 는 역방향 프록시 HTTP 서버입니다
mxnet1.7.0유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mariadb-server5.5.64 이상MariaDB 데이터베이스 서버.
nvidia-cuda10.1.243Nvidia 드라이버와 Cuda 도구 키트
oozie-client5.2.0Oozie 명령줄 클라이언트
oozie-server5.2.0Oozie 워크플로 요청을 수락하는 서비스
opencv4.4.0오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library5.0.0- -2.0 HBase서버 및 클라이언트의 phoenix 라이브러리
phoenix-query-server5.0.0- -2.0 HBaseAvatica에 JDBC 대한 액세스는 물론 프로토콜 버퍼 및 JSON 형식 액세스를 제공하는 경량 서버 API
presto-coordinator0.238.3-amzn-1presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker0.238.3-amzn-1여러 쿼리를 실행하는 서비스.
presto-client0.238.3-amzn-1Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
prestosql-coordinator343prestosql-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
prestosql-worker343여러 쿼리를 실행하는 서비스.
prestosql-client343Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
pig-client0.17.0Pig 명령줄 클라이언트.
r3.4.3통계 컴퓨팅용 R 프로젝트
ranger-kms-server2.0.0Apache Ranger 키 관리 시스템
spark-client3.0.1-amzn-0Spark 명령줄 클라이언트.
spark-history-server3.0.1-amzn-0완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn3.0.1-amzn-0의 인메모리 실행 엔진. YARN
spark-yarn-slave3.0.1-amzn-0슬레이브에 필요한 Apache Spark 라이브러리 YARN
spark-rapids0.2.0로 아파치 스파크를 가속화하는 엔비디아 스파크 RAPIDS 플러그인. GPUs
sqoop-client1.4.7Apache Sqoop 명령줄 클라이언트.
tensorflow2.3.1TensorFlow 고성능 수치 계산을 위한 오픈 소스 소프트웨어 라이브러리.
tez-on-yarn0.9.2tez 애플리케이션 및 라이브러리YARN.
webserver2.4.41 이상아파치 서버HTTP.
zeppelin-server0.9.0-preview1대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server3.4.14구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client3.4.14ZooKeeper 커맨드 라인 클라이언트.

6.2.0 구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이러한 파일은 대개 응용 프로그램의 구성 XML 파일 (예:) 에 해당합니다hive-site.xml. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon은 수정한 분류에 EMR 대해서만 재구성 작업을 시작합니다. 자세한 내용은 실행 중인 클러스터에서 인스턴스 그룹 재구성 단원을 참조하십시오.

emr-6.2.0 분류
분류 설명 재구성 작업

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

Restarts the ResourceManager service.

container-executor

YARN하둡의 container-executor.cfg 파일에서 값을 변경하십시오.

Not available.

container-log4j

하둡의 컨테이너-log4j.properties YARN 파일에서 값을 변경합니다.

Not available.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Docker 관련 설정을 변경합니다.

Not available.

emrfs-site

EMRFS설정 변경.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

flink-conf.yaml 설정을 변경합니다.

Not available.

flink-log4j

Flink log4j.properties 설정을 변경합니다.

Not available.

flink-log4j-yarn-session

플링크 log4j-yarn-session. properties 설정을 변경합니다.

Not available.

flink-log4j-cli

Flink log4j-cli.properties 설정을 변경합니다.

Not available.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

Not available.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

Not available.

hbase

Amazon에서 EMR 엄선한 아파치 설정 HBase

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

의 환경에서 HBase 값을 변경하십시오.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

HBasehbase-log4j.properties 파일에서 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

의 hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. HBase

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

HBase의 hbase-policy.xml 파일에서 값을 변경합니다.

Not available.

hbase-site

hbase-site.xml 파일에서 HBase 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

HDFS암호화 영역을 구성합니다.

This classification should not be reconfigured.

hdfs-env

HDFS환경의 값을 변경하십시오.

Restarts Hadoop HDFS ZKFC.

hdfs-site

HDFS의 hdfs-site.xml 에서 값을 변경하십시오.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

HCatalog의 환경에서 값을 변경하십시오.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

HCatalog의 jndi.properties에서 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

.xml에서 HCatalog 값을 변경합니다. proto-hive-site

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

HCatalogW ebHCat 환경의 값을 변경합니다.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

HCatalogebHCatW의 log4j2.properties에서 값을 변경하십시오.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

HCatalogebHCatW의 webhcat-site.xml 파일에서 값을 변경하십시오.

Restarts Hive WebHCat server.

hive

Amazon에서 EMR 엄선한 아파치 하이브 설정

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

Not available.

hive-env

Hive 환경의 값을 변경합니다.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

하이브의 4j2.properties 파일에서 값을 변경하십시오. hive-exec-log

Not available.

hive-llap-daemon-log4j2

하이브의 4j2.properties 파일에서 값을 변경하십시오. llap-daemon-log

Not available.

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

Not available.

hue-ini

Hue ini 파일의 값을 변경합니다.

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

환경에서 값을 변경하십시오. HTTPFS

Restarts Hadoop Httpfs service.

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

Not available.

hadoop-kms-env

하둡 KMS 환경에서 값을 변경합니다.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

Not available.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Hudi 환경의 값을 변경합니다.

Not available.

jupyter-notebook-conf

Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

Not available.

jupyter-hub-conf

JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다.

Not available.

jupyter-s3-conf

Jupyter Notebook S3 지속성 구성

Not available.

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

Not available.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

Restarts Livy Server.

livy-env

Livy 환경의 값을 변경합니다.

Restarts Livy Server.

livy-log4j

Livy log4j.properties 설정을 변경합니다.

Restarts Livy Server.

mapred-env

MapReduce 애플리케이션 환경에서 값을 변경합니다.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

MapReduce 애플리케이션의 mapred-site.xml 파일에서 값을 변경합니다.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Oozie 환경의 값을 변경합니다.

Restarts Oozie.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

Restarts Oozie.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

Restarts Oozie.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

Not available.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

Not available.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

Restarts Phoenix-QueryServer.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

Not available.

pig-env

Pig 환경에서 값을 변경합니다.

Not available.

pig-properties

Pig pig.properties 파일의 값을 변경합니다.

Restarts Oozie.

pig-log4j

Pig log4j.properties 파일의 값을 변경합니다.

Not available.

presto-log

Presto log.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-config

Presto config.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

Not available.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

Not available.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

Not available.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

Not available.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

Not available.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

Not available.

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

Not available.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

Not available.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

Not available.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

Not available.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

Not available.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

Not available.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

Not available.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

Not available.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

Not available.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

Not available.

prestosql-log

Presto log.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoSQL)

prestosql-config

Presto config.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoSQL)

prestosql-password-authenticator

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoSQL)

prestosql-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

Restarts Presto-Server (for PrestoSQL)

prestosql-node

SQL프레스토의 node.properties 파일에서 값을 변경하십시오.

Not available.

prestosql-connector-blackhole

SQL프레스토의 블랙홀.properties 파일에서 값을 변경하십시오.

Not available.

prestosql-connector-cassandra

프레스토의 cassandra.properties 파일에서 값을 변경하십시오. SQL

Not available.

prestosql-connector-hive

프레스토의 하이브.properties 파일에서 값을 변경하십시오. SQL

Restarts Presto-Server (for PrestoSQL)

prestosql-connector-jmx

SQL프레스토의 jmx.properties 파일에서 값을 변경하십시오.

Not available.

prestosql-connector-kafka

프레스토의 kafka.properties 파일에서 값을 변경하십시오. SQL

Not available.

prestosql-connector-localfile

프레스토의 로컬파일.properties 파일에서 값을 변경하십시오. SQL

Not available.

prestosql-connector-memory

SQL프레스토의 메모리.properties 파일에서 값을 변경하십시오.

Not available.

prestosql-connector-mongodb

SQL프레스토의 mongodb.properties 파일에서 값을 변경하십시오.

Not available.

prestosql-connector-mysql

SQL프레스토의 mysql.properties 파일에서 값을 변경하십시오.

Not available.

prestosql-connector-postgresql

프레스토의 포스트그레SQL.properties 파일에서 값을 변경하십시오. SQL

Not available.

prestosql-connector-raptor

프레스토의 랩터.properties 파일에서 값을 변경하십시오. SQL

Not available.

prestosql-connector-redis

프레스토의 redis.properties 파일에서 값을 변경하십시오. SQL

Not available.

prestosql-connector-redshift

SQL프레스토의 redshift.properties 파일에서 값을 변경하십시오.

Not available.

prestosql-connector-tpch

프레스토의 tpch.properties 파일에서 값을 변경하십시오. SQL

Not available.

prestosql-connector-tpcds

프레스토의 tpcds.properties 파일에서 값을 변경하십시오. SQL

Not available.

ranger-kms-dbks-site

레인저의 dbks-site.xml 파일에서 값을 변경하십시오. KMS

Restarts Ranger KMS Server.

ranger-kms-site

ranger-kms-site레인저의.xml 파일에서 값을 변경합니다. KMS

Restarts Ranger KMS Server.

ranger-kms-env

Ranger KMS 환경에서 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-log4j

레인저의 kms-log4j.properties 파일에서 값을 변경합니다. KMS

Not available.

ranger-kms-db-ca

레인저와의 내 연결에 대한 S3의 CA 파일 값을 변경합니다. SQL SSL KMS

Not available.

spark

Amazon에서 EMR 엄선한 아파치 스파크의 설정

This property modifies spark-defaults. See actions there.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-env

the Spark 환경의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

Not available.

spark-log4j

Spark log4j.properties 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

sqoop-env

Sqoop 환경의 값을 변경합니다.

Not available.

sqoop-oraoop-site

스쿱의 oraoop-site.xml 파일에서 값을 변경하세요. OraOop

Not available.

sqoop-site

Sqoop sqoop-site.xml 파일의 값을 변경합니다.

Not available.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

Restart Oozie.

yarn-env

환경에서 값을 변경하십시오. YARN

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

YARN의 yarn-site.xml 파일에서 값을 변경합니다.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

Restarts Zeppelin.

zookeeper-config

zoo.cfg 파일에서 ZooKeeper 값을 변경합니다.

Restarts Zookeeper server.

zookeeper-log4j

ZooKeeperlog4j.properties 파일에서 값을 변경합니다.

Restarts Zookeeper server.