아마존 EMR 릴리스 6.4.0 - Amazon EMR

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

아마존 EMR 릴리스 6.4.0

애플리케이션 버전

이 릴리스에는 다음과 같은 애플리케이션이 지원됩니다.Flink,Ganglia,HBase,HCatalog,Hadoop,Hive,Hudi,Hue,JupyterEnterpriseGateway,JupyterHub,Livy,MXNet,Oozie,Phoenix,Pig,Presto,Spark,Sqoop,TensorFlow,Tez,Trino,Zeppelin, 및ZooKeeper.

아래 표에는 이번 Amazon EMR 릴리스에서 사용 가능한 애플리케이션 버전과 이전 3개 Amazon EMR 릴리스의 애플리케이션 버전을 보여줍니다 (해당되는 경우).

각 Amazon EMR의 포괄적인 애플리케이션 버전 기록은 다음 항목을 참조하십시오.

버전 정보
emr-6.4.0 emr-6.3.1 emr-6.3.0 엠R-6.2.1
Java용 AWS SDK 1.12.311.11.9771.11.9771.11.880
Flink1.13.11.12.11.12.11.11.2
Ganglia3.7.23.7.23.7.23.7.2
HBase2.4.42.2.62.2.62.2.2.2.2.2.2.2.2.2.
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.8.0-amzn-00.7.0-amzn-00.7.0-amzn-00.6.0-amzn-1
Hue4.9.04.9.04.9.04.8.0
JupyterEnterpriseGateway2.1.02.1.02.1.02.1.0
JupyterHub1.4.11.2.01.2.01.1.0
Livy0.7.10.7.00.7.00.7.0
MXNet1.8.01.7.01.7.01.7.0
Mahout - - - -
Oozie5.2.15.2.15.2.15.2.0
Phoenix5.1.25.0.05.0.05.0.0
Pig0.17.00.17.00.17.00.17.0
Presto0.254.10.245.10.245.10.238.3
Spark3.1.23.1.13.1.13.0.1
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.4.12.4.12.3.1
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)359350350343
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.5.73.4.143.4.143.4.14

릴리스 정보

다음 릴리스 정보에는 Amazon EMR 릴리스 버전 6.4.0에 대한 정보가 포함됩니다. 변경 사항은 6.3.0에 관련됩니다.

최초 릴리스 날짜: 2021년 9월 20일

지원되는 애플리케이션

  • AWS SDK for Java버전 1.12.31

  • CloudWatch 싱크 버전 2.2.0

  • DynamoDB 커넥터 버전 4.16.0

  • EMRFS 버전 2.47.0

  • Amazon EMR Goodies 버전 3.2.0

  • Amazon EMR Kinesis 커넥터 버전 3.5.0

  • Amazon EMR 레코드 서버 버전 2.1.0

  • Amazon EMR 스크립트 버전 2.5.0

  • Flink 버전 1.13.1

  • Ganglia 버전 3.7.2

  • AWSGlue Hive 메타스토어 클라이언트 버전 3.3.0

  • Hadoop 버전 3.2.1-amzn-4

  • HBase 버전 2.4.4-amzn-0

  • HBase-오퍼레이터 툴 1.1.0

  • HCatalog 버전 3.1.2-amzn-5

  • Hive 버전 3.1.2-amzn-5

  • Hudi 버전 0.8.0-amzn-0

  • 휴 버전 4.9.0

  • 자바 JDK 버전 코레토 8.302.08.1 (빌드 1.8.0_302-b08)

  • JupyterHub 버전 1.4.1

  • Livy 버전 0.7.1-incubating

  • MXNet 버전 1.8.0

  • Oozie 버전 5.2.1

  • Phoenix 버전 5.1.2

  • Pig 버전 0.17.0

  • 프레스토 버전 0.254.1-amzn-0

  • Trino 버전 359

  • 아파치 레인저 KMS (멀티 마스터 투명 암호화) 버전 2.0.0

  • 레인저 플러그인 2.0.1-amzn-0

  • 레인저-s3-플러그인 1.2.0

  • SageMaker SDK 버전 1.4.1

  • 스칼라 버전 2.12.10 (OpenJDK 64 비트 서버 VM, 자바 1.8.0_282)

  • 스파크 버전 3.1.2-amzn-0

  • Sparkk-Rapids 0.4.1

  • Sqoop 버전 1.4.7

  • TensorFlow 버전 2.4.1

  • Tez 버전 0.9.2

  • Zeppelin 버전 0.9.0

  • Zookeeper 버전 3.5.7

  • 커넥터 및 드라이버: DynamoDB 커넥터 4.16.0

새로운 기능

  • Apache 레인저 지원 Amazon EMR 클러스터에서는 Apache Spark SQL을 사용하여 다음을 사용하여 Apache Hive 메타스토어 테이블에 데이터를 삽입하거나 업데이트할 수 있습니다.INSERT INTO,INSERT OVERWRITE, 및ALTER TABLE. Spark SQL에서 ALTER TABLE을 사용하는 경우 파티션 위치는 테이블 위치의 하위 디렉토리여야 합니다. Amazon EMR은 현재 파티션 위치가 테이블 위치와 다른 파티션에 데이터 삽입을 지원하지 않습니다.

  • PrestoSQL이이름이 트리노로 변경되었습니다.

  • Hive: LIMIT 절과 간단한 SELECT 쿼리의 실행은 즉시 LIMIT 절에 언급 된 레코드의 수를 가져 오는대로 쿼리 실행을 중지하여 가속화됩니다. 단순 SELECT 쿼리는 GROUP BY/ORDER by 절이 없는 쿼리 또는 감속기 단계가 없는 쿼리입니다. 예를 들면 SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>와 같습니다.

Hudi 동시성 제어

  • Hudi는 이제 OCC를 지원합니다. OCC는 UPSERT 및 INSERT 같은 쓰기 작업을 활용하여 여러 작성기에서 동일한 Hudi 테이블로의 변경을 허용할 수 있습니다. 이것은 파일 수준 OCC이므로 변경 사항이 충돌하지 않으면 두 커밋 (또는 작성자) 이 동일한 테이블에 쓸 수 있습니다. 자세한 내용은 단원을 참조하십시오.Hudi 동시성 제어.

  • Amazon EMR 클러스터에는 Zookeeper가 설치되어 있으며 OCC의 잠금 공급자로 활용할 수 있습니다. 이 기능을 더 쉽게 사용할 수 있도록 Amazon EMR 클러스터에는 다음과 같은 속성이 미리 구성되어 있습니다.

    hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL> hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port> hoodie.write.lock.zookeeper.base_path=/hudi

    OCC를 활성화하려면 Hudi 작업 옵션을 사용하거나 Amazon EMR 구성 API를 사용하여 클러스터 수준에서 다음 속성을 구성해야 합니다.

    hoodie.write.concurrency.mode=optimistic_concurrency_control hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write) hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)

Hudi Monitoring Hudi 지표 보고를 위한 Amazon CloudWatch 통합

  • Amazon EMR은 후디 지표를 Amazon CloudWatch 클라우드워치에 게시할 수 있도록 지원합니다. 다음과 같은 필수 구성을 설정하여 활성화됩니다.

    hoodie.metrics.on=true hoodie.metrics.reporter.type=CLOUDWATCH
  • 다음은 변경할 수 있는 선택적 Hudi 구성입니다.

    설정 설명

    까마귀. 미터학.클라우드워치. 보고서.기간.초

    Amazon CloudWatch에 지표를 보고할 빈도 (초)

    기본값은 60초이며, Amazon CloudWatch에서 제공하는 기본 1분 해상도에 대해서는 괜찮습니다.

    까마귀. 미터법.클라우드워치.

    각 지표 이름에 추가할 접두사

    기본값은 비어 있습니다 (접두사 없음)

    까마귀. 메트릭스. 클라우드워치. 네임스페이스

    지표가 게시되는 Amazon CloudWatch 네임스페이스

    기본값은 Hudi입니다.

    까마귀. 메트릭. 클라우드워치.

    Amazon CloudWatch에 대한 하나의 요청에 포함할 최대 데이터 수

    기본값은 20이며, 이는 Amazon CloudWatch 기본값과 동일합니다.

아마존 EMR Hudi 구성 지원 및 개선 사항

  • 이제 고객은 EMR 구성 API 및 재구성 기능을 활용하여 클러스터 수준에서 Hudi 구성을 구성할 수 있습니다. 스파크, 하이브 등과 같은 다른 응용 프로그램의 라인을 따라 /etc/hudi/conf/hudi-defaults.conf를 통해 새로운 파일 기반 구성 지원이 도입되었습니다. EMR은 사용자 환경을 개선하기 위해 몇 가지 기본값을 구성합니다.

    hoodie.datasource.hive_sync.jdbcurl 는 클러스터 Hive 서버 URL로 구성되어 있으므로 더 이상 지정할 필요가 없습니다. 이 기능은 이전에 Amazon EMR 마스터 IP를 지정해야 했던 Spark 클러스터 모드에서 작업을 실행할 때 특히 유용합니다.

    — HBase를 특정 구성, Hudi와 함께 HBase를 인덱스를 사용하는 데 유용합니다.

    — 동시성 제어에서 논의 된 Zookeeper 잠금 공급자 특정 구성으로 OCC (낙관적 동시성 제어) 를 쉽게 사용할 수 있습니다.

  • 통과해야 하는 구성 수를 줄이고 가능한 경우 자동으로 추론하기 위해 추가 변경 사항이 도입되었습니다.

    partitionBy 키워드는 파티션 열을 지정하는 데 사용할 수 있습니다.

    — Hive Sync를 활성화할 때 더 이상 필수가 아닙니다.HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY. 이러한 값은 Hudi 테이블 이름 및 파티션 필드에서 추론할 수 있습니다.

    KEYGENERATOR_CLASS_OPT_KEY통과하기 위해 필수는 아니며, 더 간단한 경우에서 추론 할 수 있습니다.SimpleKeyGeneratorComplexKeyGenerator.

후디 경고

  • Hudi는 읽기에 병합 (MoR) 및 부트스트랩 테이블에서 Hive에서 벡터화된 실행을 지원하지 않습니다. 예,count(*)다음과 같은 경우 Hudi 실시간 테이블로 실패합니다.hive.vectorized.execution.enabled가 true로 설정됩니다. 차선책으로서 설정을 통해 벡터화된 읽기를 비활성화할 수 있습니다.hive.vectorized.execution.enabledfalse.

  • 멀티 라이터 지원은 Hudi 부트스트랩 기능과 호환되지 않습니다.

  • Flink 스트리머와 Flink SQL은 이번 릴리스에서 실험적인 기능입니다. 이러한 기능은 프로덕션 배포에는 사용하지 않는 것이 좋습니다.

변경 사항, 개선 사항 및 해결된 문제

  • Apache YARN 타임라인 서버 버전 1 및 1.5 성능 문제를 해결하도록 클러스터 구성

    Apache YARN 타임라인 서버 버전 1과 1.5는 매우 활발하고 큰 EMR 클러스터에서 성능 문제를 일으킬 수 있습니다.yarn.resourcemanager.system-metrics-publisher.enabled=true는 EMR의 기본 설정입니다. 오픈 소스 YARN 타임라인 서버 v2는 YARN 타임라인 서버 확장성과 관련된 성능 문제를 해결합니다.

    이 문제에 대한 다른 해결 방법은 다음과 같습니다.

    • yarn-site.xml 에서 원사. 리소스 관리자.시스템 메트릭스-게시자.enabled=false를 구성합니다.

    • 아래에 설명된 대로 클러스터를 만들 때 이 문제에 대한 수정 프로그램을 활성화합니다.

    다음 Amazon EMR 릴리스 버전에는 이 YARN 타임라인 서버 성능 문제에 대한 수정 사항이 포함되어 있습니다.

    EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.엑스, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

    위에서 지정한 Amazon EMR 릴리스에 대한 수정을 활성화하려면 이러한 속성을 로 설정합니다.true를 사용하여 전달되는 구성 JSON 파일에서aws emr create-cluster명령 파라미터: --configurations file://./configurations.json. 또는 다음을 사용하여 수정 프로그램을 활성화하십시오.콘솔 UI 다시 구성.

    구성.json 파일 내용의 예:

    [ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
  • WebHDFS 및 HTTPFS 서버는 기본적으로 비활성화되어 있습니다. 하둡 구성을 사용하여 WebHDFS를 다시 활성화할 수 있습니다.dfs.webhdfs.enabled. HttpFS 서버는 다음을 사용하여 시작할 수 있습니다.sudo systemctl start hadoop-httpfs.

  • 이제 Amazon Linux 리포지토리에 대해 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN을 추가해야 합니다.arn:aws:s3:::amazonlinux-2-repos-$region/*귀하의 정책 (대체$region엔드포인트가 있는 리전을 사용합니다. 자세한 내용은 단원을 참조하십시오.AWS토론 포럼 공지 사항: Amazon Linux 2는 이제 패키지 리포지토리에 연결하는 동안 HTTPS를 사용할 수 있는 기능을 지원합니다..

  • Hive: 마지막 작업에 대해 HDFS에서 스크래치 디렉토리를 사용하도록 설정하면 쓰기 쿼리 성능이 향상됩니다. 최종 작업의 임시 데이터는 Amazon S3 대신 HDFS에 기록되며 데이터가 Amazon S3 디바이스 간에 대신 HDFS에서 최종 테이블 위치 (Amazon S3) 로 이동되기 때문에 성능이 향상됩니다.

  • Hive: Glue 메타스토어 파티션 정리를 통해 쿼리 컴파일 시간이 최대 2.5배까지 향상됩니다.

  • 기본적으로 기본 제공 UDF가 Hive에서 Hive 메타스토어 서버로 전달되는 경우 Glue는 제한된 표현식 연산자만 지원하므로 이러한 기본 제공 UDF의 하위 집합만 Glue 메타스토어에 전달됩니다. 설정한 경우hive.glue.partition.pruning.client=true를 클라이언트 측에서 모든 파티션 정리가 발생합니다. 설정한 경우hive.glue.partition.pruning.server=true를 서버 측에서 모든 파티션 정리가 발생합니다.

알려진 문제

  • Apache 하둡 HttpFS 서버는 기본적으로 비활성화되어 있기 때문에 Amazon EMR 6.4.0에서는 색조 쿼리가 작동하지 않습니다. 아마존 EMR 6.4.0에서 Hue 를 사용하려면 다음을 사용하여 아마존 EMR 마스터 노드에서 HTTPFS 서버를 수동으로 시작합니다.sudo systemctl start hadoop-httpfs또는아마존 EMR 단계 사용.

  • HttpF가 기본적으로 비활성화되어 있기 때문에 Livy 사용자 가장과 함께 사용되는 Amazon EMR Notebooks 기능이 작동하지 않습니다. 이 경우 EMR 노트북은 Livy 가장을 사용하도록 설정한 클러스터에 연결할 수 없습니다. 해결 방법은 다음을 사용하여 EMR 노트북을 클러스터에 연결하기 전에 HttpFS 서버를 시작하는 것입니다.sudo systemctl start hadoop-httpfs.

  • Amazon EMR 버전 6.4.0에서 피닉스는 피닉스 커넥터 구성 요소를 지원하지 않습니다.

구성 요소 버전

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. AWS는 Amazon EMR에서 커뮤니티 릴리스를 최대한 빨리 제공할 수 있도록 노력하고 있습니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어, 오픈소스 커뮤니티 구성 요소인 경우myapp-component버전 2.2의 버전은 다른 Amazon EMR 릴리스 버전에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 로 나열됩니다.2.2-amzn-2.

구성 요소 버전 설명
aws-sagemaker-spark-sdk1.4.1Amazon SageMaker Spark SDK
emr-ddb4.16.0하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies3.2.0편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis3.5.0하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-notebook-env1.3.0jupyter 엔터프라이즈 게이트웨이를 포함하는 emr 노트북용 Conda env
emr-s3-dist-cp2.18.0Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select2.1.0EMR S3Select 커넥터
emrfs2.47.0하둡 에코시스템 애플리케이션용 Amazon S3 커넥터.
flink-client1.13.1Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션
flink-jobmanager-config1.13.1아파치 플링크 JobManager에 대한 EMR 노드에서 리소스 관리
ganglia-monitor3.7.2하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector3.7.2Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web3.7.1Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client3.2.1-amzn-4'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode3.2.1-amzn-4블록을 저장하는 HDFS 노드 수준 서비스
hadoop-hdfs-library3.2.1-amzn-4HDFS 명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode3.2.1-amzn-4파일 이름 및 블록 위치를 추적하는 HDFS 서비스
hadoop-hdfs-journalnode3.2.1-amzn-4HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스
hadoop-httpfs-server3.2.1-amzn-4HDFS 작업에 대한 HTTP 엔드포인트
hadoop-kms-server3.2.1-amzn-4하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버
hadoop-mapred3.2.1-amzn-4MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리
hadoop-yarn-nodemanager3.2.1-amzn-4개별 노드의 컨테이너를 관리하는 YARN 서비스
hadoop-yarn-resourcemanager3.2.1-amzn-4클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스
hadoop-yarn-timeline-server3.2.1-amzn-4YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스
hbase-hmaster2.4.4-amzn-0리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스
hbase-region-server2.4.4-amzn-0한 개 이상의 HBase 리전에 서비스를 제공하는 서비스
hbase-client2.4.4-amzn-0HBase 명령줄 클라이언트
hbase-rest-server2.4.4-amzn-0HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스
hbase-thrift-server2.4.4-amzn-0HBase에 Thrift 엔드포인트를 제공하는 서비스
hcatalog-client3.1.2-amzn-5hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server3.1.2-amzn-5분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스
hcatalog-webhcat-server3.1.2-amzn-5HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트
hive-client3.1.2-amzn-5Hive 명령줄 클라이언트
hive-hbase3.1.2-amzn-5Hive-hbase 클라이언트
hive-metastore-server3.1.2-amzn-5하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스
hive-server23.1.2-amzn-5Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hudi0.8.0-amzn-0짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크.
hudi-presto0.8.0-amzn-0Hudi로 Presto를 실행하기 위한 번들 라이브러리.
hudi-trino0.8.0-amzn-0Hudi로 Trino를 실행하기 위한 번들 라이브러리.
hudi-spark0.8.0-amzn-0Hudi로 Spark 실행을 위한 번들 라이브러리.
hue-server4.9.0하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
jupyterhub1.4.1Jupyter 노트북용 다중 사용자 서버
livy-server0.7.1-incubatingApache Spark와 상호작용하기 위한 REST 인터페이스
nginx1.12.1HTTP인 nginx [engine x] 및 역방향 프록시 서버
mxnet1.8.0유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mariadb-server5.5.68+MariaDB 데이터베이스 서버.
nvidia-cuda10.1.243Nvidia 드라이버와 Cuda 도구 키트
oozie-client5.2.1Oozie 명령줄 클라이언트
oozie-server5.2.1Oozie 워크플로 요청을 수락하는 서비스
opencv4.5.0오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library5.1.2서버 및 클라이언트의 phoenix 라이브러리
phoenix-query-server5.1.2Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버
presto-coordinator0.254.1-amzn-0presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker0.254.1-amzn-0여러 쿼리를 실행하는 서비스.
presto-client0.254.1-amzn-0Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
trino-coordinator359trino-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
trino-worker359여러 쿼리를 실행하는 서비스.
trino-client359Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트입니다.
pig-client0.17.0Pig 명령줄 클라이언트.
r4.0.2통계 컴퓨팅용 R 프로젝트
ranger-kms-server2.0.0Apache Ranger 키 관리 시스템
spark-client3.1.2-amzn-0Spark 명령줄 클라이언트.
spark-history-server3.1.2-amzn-0완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn3.1.2-amzn-0YARN용 인 메모리 실행 엔진.
spark-yarn-slave3.1.2-amzn-0YARN 슬레이브에서 필요한 Apache Spark 라이브러리.
spark-rapids0.4.1GPU로 아파치 스파크를 가속화하는 엔비디아 스파크 RAPIDS 플러그인.
sqoop-client1.4.7Apache Sqoop 명령줄 클라이언트.
tensorflow2.4.1TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다.
tez-on-yarn0.9.2tez YARN 애플리케이션 및 라이브러리.
webserver2.4.41 이상Apache HTTP 서버.
zeppelin-server0.9.0대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server3.5.7구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client3.5.7ZooKeeper 명령줄 클라이언트.

구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 정보는 애플리케이션 구성을 참조하십시오.

실행 중인 클러스터의 인스턴스 그룹에 대해 구성을 지정할 때 재구성 작업이 발생합니다. EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 정보는 실행 중인 클러스터에서 인스턴스 그룹 재구성을 참조하십시오.

emr-6.4.0 분류
분류 설명 재구성 작업

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

Restarts the ResourceManager service.

container-executor

하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다.

Not available.

container-log4j

하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다.

Not available.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

도커 관련 설정을 변경합니다.

Not available.

emrfs-site

EMRFS 설정을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

flink-conf.yaml 설정을 변경합니다.

Restarts Flink history server.

flink-log4j

Flink log4j.properties 설정을 변경합니다.

Restarts Flink history server.

flink-log4j-session

쿠버네티스/얀 세션에 대한 Flink log4j-session.properties 설정을 변경합니다.

Restarts Flink history server.

flink-log4j-cli

Flink log4j-cli.properties 설정을 변경합니다.

Restarts Flink history server.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

Not available.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

Not available.

hbase

Apache HBase에 대한 EMR 큐레이트 설정입니다.

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

HBase 환경의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

HBase hbase-log4j.properties 파일의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

HBase hbase-policy.xml 파일의 값을 변경합니다.

Not available.

hbase-site

HBase hbase-site.xml 파일의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

HDFS 암호화 영역을 구성합니다.

This classification should not be reconfigured.

hdfs-env

HDFS 환경의 값을 변경합니다.

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

HDFS hdfs-site.xml의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

HCatalog 환경의 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

HCatalog jndi.properties 환경의 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

HCatalog proto-hive-site.xml의 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

HCatalog WebHCat 환경의 값을 변경합니다.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

HCatalog WebHCat log4j2.properties의 값을 변경합니다.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다.

Restarts Hive WebHCat server.

hive

Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

Not available.

hive-env

Hive 환경의 값을 변경합니다.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Hive hive-exec-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-llap-daemon-log4j2

Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

Not available.

hue-ini

Hue ini 파일의 값을 변경합니다.

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

HTTPFS 환경의 값을 변경합니다.

Restarts Hadoop Httpfs service.

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

Not available.

hadoop-kms-env

하둡 KMS 환경의 값을 변경합니다.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

Not available.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Hudi 환경의 값을 변경합니다.

Not available.

hudi-defaults

Hudiults.conf 파일의 값을 변경합니다.

Not available.

jupyter-notebook-conf

Jupyter 노트북의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

Not available.

jupyter-hub-conf

JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다.

Not available.

jupyter-s3-conf

Jupyter 노트북 S3 지속성 구성

Not available.

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

Not available.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

Restarts Livy Server.

livy-env

Livy 환경의 값을 변경합니다.

Restarts Livy Server.

livy-log4j

Livy log4j.properties 설정을 변경합니다.

Restarts Livy Server.

mapred-env

MapReduce 애플리케이션 환경의 값을 변경합니다.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Oozie 환경의 값을 변경합니다.

Restarts Oozie.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

Restarts Oozie.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

Restarts Oozie.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

Not available.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

Not available.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

Restarts Phoenix-QueryServer.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

Not available.

pig-env

Pig 환경에서 값을 변경합니다.

Not available.

pig-properties

Pig pig.properties 파일의 값을 변경합니다.

Restarts Oozie.

pig-log4j

Pig log4j.properties 파일의 값을 변경합니다.

Not available.

presto-log

Presto log.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-config

Presto config.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

Not available.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

Not available.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

Not available.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

Not available.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

Not available.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

Not available.

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

Not available.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

Not available.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

Not available.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

Not available.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

Not available.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

Not available.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

Not available.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

Not available.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

Not available.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

Not available.

trino-log

Trino의 log.properties 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-config

Trio의 config.properties 파일의 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-password-authenticator

Trino의 암호 인증자.properties 파일의 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-env

트리노의 trino-env.sh 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-node

Trino의 node.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-blackhole

Trio의 Blackhole.properties 파일의 값을 변경합니다.

Not available.

trino-connector-cassandra

Trio의 cassandra.properties 파일의 값을 변경합니다.

Not available.

trino-connector-hive

Trio의 hive.properties 파일의 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-connector-jmx

Trino의 jmx.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-kafka

Trio kafka.properties 파일의 값을 변경합니다.

Not available.

trino-connector-localfile

Trino의 localfile.properties 파일의 값을 변경합니다.

Not available.

trino-connector-memory

Trio memory.properties 파일의 값을 변경합니다.

Not available.

trino-connector-mongodb

Trio의 mongodb.properties 파일의 값을 변경합니다.

Not available.

trino-connector-mysql

Trio의 mysql.properties 파일의 값을 변경합니다.

Not available.

trino-connector-postgresql

Pstgresql.properties 파일의 값을 변경합니다.

Not available.

trino-connector-raptor

Trio의 raptor.properties 파일의 값을 변경합니다.

Not available.

trino-connector-redis

Trio의 redis.properties 파일의 값을 변경합니다.

Not available.

trino-connector-redshift

Trio의 redshift.properties 파일의 값을 변경합니다.

Not available.

trino-connector-tpch

Trio의 tpch.properties 파일의 값을 변경합니다.

Not available.

trino-connector-tpcds

Trio의 tpcds.properties 파일의 값을 변경합니다.

Not available.

ranger-kms-dbks-site

Ranger KMS에서 dbks-site.xml 파일의 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-site

Ranger KMS에서 ranger-kms-site.xml 파일의 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-env

Ranger KMS 환경의 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-log4j

Ranger KM에서 kms-log4j.properties 파일의 값을 변경합니다.

Not available.

ranger-kms-db-ca

Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다.

Not available.

spark

Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다.

This property modifies spark-defaults. See actions there.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-env

the Spark 환경의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

Not available.

spark-log4j

Spark log4j.properties 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

sqoop-env

Sqoop 환경의 값을 변경합니다.

Not available.

sqoop-oraoop-site

Sqoop OraOop oraoop-site.xml 파일의 값을 변경합니다.

Not available.

sqoop-site

Sqoop sqoop-site.xml 파일의 값을 변경합니다.

Not available.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

Restart Oozie and HiveServer2.

yarn-env

YARN 환경의 값을 변경합니다.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

YARN yarn-site.xml 파일의 값을 변경합니다.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

Restarts Zeppelin.

zeppelin-site

zeppelin-site.xml 에서 구성 설정을 변경합니다.

Restarts Zeppelin.

zookeeper-config

ZooKeeper zoo.cfg 파일의 값을 변경합니다.

Restarts Zookeeper server.

zookeeper-log4j

ZooKeeper log4j.properties 파일의 값을 변경합니다.

Restarts Zookeeper server.