기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon EMR 릴리스 6.1.0
6.1.0 애플리케이션 버전
이 릴리스에서 지원되는 애플리케이션은 Flink
아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.
각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | |
---|---|---|---|---|
AWS Java용 SDK | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.11.0 | 1.11.0 | - | - |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 |
Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 |
Livy | 0.7.0 | 0.7.0 | 0.6.0 | 0.6.0 |
MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 |
Mahout | - | - | - | - |
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | - | - |
Presto | 0.232 | 0.232 | 0.230 | 0.230 |
Spark | 3.0.0 | 3.0.0 | 2.4.4 | 2.4.4 |
Sqoop | 1.4.7 | 1.4.7 | - | - |
TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | 338 | 338 | - | - |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
6.1.0 릴리스 정보
다음 릴리스 정보에는 Amazon EMR 릴리스 6.1.0에 대한 정보가 포함됩니다. 변경 사항은 6.0.0에 관련됩니다.
최초 릴리스 날짜: 2020년 9월 4일
최종 업데이트 날짜: 2020년 10월 15일
지원되는 애플리케이션
AWS SDK for Java 버전 1.11.828
Flink 버전 1.11.0
Ganglia 버전 3.7.2
Hadoop 버전 3.2.1-amzn-1
HBase 버전 2.2.5
HBase-operator-tools 1.0.0
HCatalog 버전 3.1.2-amzn-0
Hive 버전 3.1.2-amzn-1
Hudi 버전 0.5.2-incubating
Hue 버전 4.7.1
JupyterHub 버전 1.1.0
Livy 버전 0.7.0
MXNet 버전 1.6.0
Oozie 버전 5.2.0
Phoenix 버전 5.0.0
Presto 버전 0.232
PrestoSQL 버전 338
Spark 버전 3.0.0-amzn-0
TensorFlow 버전 2.1.0
Zeppelin 버전 0.9.0-preview1
Zookeeper 버전 3.4.14
커넥터 및 드라이버: DynamoDB Connector 4.14.0
새로운 특성
ARM 인스턴스 유형은 Amazon EMR 버전 5.30.0 및 Amazon EMR 버전 6.1.0부터 지원됩니다.
M6g 범용 인스턴스 유형은 Amazon EMR 버전 6.1.0 및 5.30.0부터 지원됩니다. 자세한 내용은 Amazon EMR 관리 안내서에서 지원되는 인스턴스 유형을 참조하세요.
EC2 배치 그룹 기능은 여러 프라이머리 노드 클러스터에 대한 옵션으로 Amazon EMR 버전 5.23.0부터 지원됩니다. 현재 배치 그룹 기능에서는 프라이머리 노드 유형만 지원되며 해당 프라이머리 노드에는
SPREAD
전략이 적용됩니다.SPREAD
전략은 하드웨어 장애 발생 시 여러 프라이머리 노드의 손실을 방지하기 위해 별도의 기본 하드웨어에 작은 그룹의 인스턴스를 배치합니다. 자세한 내용은 Amazon EMR 관리 안내서에서 EMR과 EC2 배치 그룹 통합을 참조하세요.Managed Scaling - Amazon EMR 버전 6.1.0에서는 Amazon EMR Managed Scaling을 활성화하여 워크로드에 따라 클러스터에서 인스턴스 또는 유닛 수를 자동으로 늘리거나 줄일 수 있습니다. Amazon EMR은 클러스터 지표를 지속적으로 평가하여 비용과 속도 측면에서 클러스터를 최적화하는 조정 결정을 내립니다. Amazon EMR 버전 5.30.0 이상(6.0.0 제외)에서도 Managed Scaling을 사용할 수 있습니다. 자세한 내용은 Amazon EMR 관리 안내서에서 클러스터 리소스 조정을 참조하세요.
PrestoSQL 버전 338은 EMR 6.1.0에서 지원됩니다. 자세한 내용은 Presto를 참조하세요.
PrestoSQL은 EMR 6.1.0 이상 버전에서만 지원되며, EMR 6.0.0 또는 EMR 5.x에서 지원되지 않습니다.
애플리케이션 이름(
Presto
)은 클러스터에 PrestoDB를 설치하는 데 계속 사용됩니다. 클러스터에 PrestoSQL을 설치하려면 애플리케이션 이름,PrestoSQL
을 사용합니다.PrestoDB 또는 PrestoSQL 중 하나를 설치할 수 있지만 단일 클러스터에 둘 다 설치할 수는 없습니다. 클러스터를 생성하려고 할 때 PrestoDB와 PrestoSQL을 모두 지정하면 검증 오류가 발생하고 클러스터 생성 요청이 실패합니다.
PrestoSQL은 단일 마스터 클러스터 및 멀티 마스터 클러스터 모두에서 지원됩니다. 멀티 마스터 클러스터에서 PrestoSQL 또는 PrestoDB를 실행하려면 외부 Hive 메타스토어가 필요합니다. 여러 프라이머리 노드를 포함하는 EMR 클러스터에서 지원되는 애플리케이션을 참조하세요.
Docker를 통해 Apache Hadoop 및 Apache Spark에서의 ECR 자동 인증 지원: Spark 사용자는 Docker Hub와 Amazon Elastic Container Registry(Amazon ECR)의 도커 이미지를 사용하여 환경 및 라이브러리 종속 항목을 정의할 수 있습니다.
Docker를 구성하고 Amazon EMR 6.x를 사용하여 Docker와 함께 Spark 애플리케이션을 실행합니다.
EMR에서 Apache Hive ACID 트랜잭션 지원: Amazon EMR 6.1.0에서는 Hive ACID 트랜잭션에 대한 지원을 추가하였고, 데이터베이스의 ACID 속성을 준수합니다. 이 기능을 사용하면 Amazon Simple Storage Service(S3)의 데이터를 사용하여 Hive 관리형 테이블에서
INSERT, UPDATE, DELETE,
및MERGE
작업을 실행할 수 있습니다. 이는 스트리밍 수집, 데이터 복원, MERGE를 사용한 대량 업데이트, 느리게 변화하는 크기 등과 같은 사용 사례와 관련된 주요 기능입니다. 구성 예제 및 사용 사례를 비롯한 자세한 내용은 Amazon EMR supports Apache Hive ACID transactions를 참조하세요.
변경 사항, 향상된 기능 및 해결된 문제
-
이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
SPARK-29683
. Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다. YARN-9011
. 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다. Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
Apache Flink는 EMR 6.0.0에서 지원되지 않지만 EMR 6.1.0에서 Flink 1.11.0으로 지원됩니다. 이 버전은 Hadoop 3을 공식적으로 지원하는 Flink의 첫 번째 버전입니다. Apache Flink 1.11.0 Release Announcement
를 참조하세요. Ganglia는 기본 EMR 6.1.0 패키지 번들에서 제거되었습니다.
알려진 문제
-
이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨]. Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.
이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.
명령줄에서 ulimit를 명시적으로 설정합니다.
/etc/systemd/system/instance-controller.service
를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.LimitNOFILE=65536
LimitNPROC=65536
InstanceController 다시 시작
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
부트스트랩 작업(BA)을 사용하여 ulimit 설정
클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
중요
Amazon EMR 6.1.0 및 6.2.0에는 모든 Hudi 삽입, 업서트 및 삭제 작업에 큰 영향을 미칠 수 있는 성능 문제가 포함되어 있습니다. Hudi를 Amazon EMR 6.1.0 또는 6.2.0과 함께 사용할 계획이라면 AWS 지원팀에 문의하여 패치된 Hudi RPM을 받아야 합니다.
spark.driver.extraJavaOptions
및spark.executor.extraJavaOptions
를 사용하여 사용자 지정 가비지 수집 구성을 설정하면 가비지 수집 구성 충돌로 인해 EMR 6.1에서 드라이버 및 실행기를 시작하지 못할 수 있습니다. EMR 릴리스 6.1.0에서는spark.driver.defaultJavaOptions
및spark.executor.defaultJavaOptions
속성 대신, 드라이버와 실행기에 대한 사용자 지정 Spark 가비지 수집 구성을 지정해야 합니다. 자세한 내용은 Apache Spark Runtime Environment및 Amazon EMR 6.1.0에서 Spark 가비지 수집 구성을 참조하세요. -
Oozie에서 Pig를 사용하는 경우(또한 Hue는 Oozie 작업을 사용하여 Pig 스크립트를 실행하므로 Hue 내에서 Pig를 사용하는 경우) 네이티브 lzo 라이브러리를 로드할 수 없다는 오류가 발생합니다. 이 오류 메시지는 정보 제공용이며 Pig 실행을 차단하지 않습니다.
Hudi 동시성 지원: 현재 Hudi는 단일 Hudi 테이블에 대한 동시 쓰기를 지원하지 않습니다. 또한 Hudi는 새 작성기를 시작하기 전에 진행 중인 작성기에서 수행하는 모든 변경 사항을 롤백합니다. 동시 쓰기는 이 메커니즘을 방해하고 경쟁 조건을 유발하여 데이터를 손상시킬 수 있습니다. 데이터 처리 워크플로의 일부로 항상 Hudi 테이블에서 단일 Hudi 작성기만 작동해야 합니다. Hudi는 동일한 Hudi 테이블에서 작동하는 여러 개의 동시 리더를 지원합니다.
-
여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제
Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.
해결 방법:
-
여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한
hadoop
사용자로 SSH 연결합니다. -
다음 명령을 실행하여
hadoop
사용자의 Kerberos 티켓을 갱신합니다.kinit -kt <keytab_file> <principal>
일반적으로 keytab 파일은
/etc/hadoop.keytab
에 있으며, 보안 주체는hadoop/<hostname>@<REALM>
양식입니다.
참고
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.
-
Amazon EMR 6.1.0에는 Presto를 실행하는 클러스터에 영향을 미치는 문제가 있습니다. 오랜 기간(일 단위)이 경과한 후 클러스터에서 'su: failed to execute /bin/bash: Resource temporarily unavailable' 또는 'shell request failed on channel 0'과 같은 오류가 발생할 수 있습니다. 이 문제는 내부 Amazon EMR 프로세스(InstanceController)에서 너무 많은 경량 프로세스(LWP)를 생성하여 결국 Hadoop 사용자가 nproc 한도를 초과하기 때문에 발생합니다. 이를 통해 사용자는 추가 프로세스를 열 수 없습니다. 이 문제의 해결 방법은 EMR 6.2.0으로 업그레이드하는 것입니다.
6.1.0 구성 요소 버전
이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr
또는 aws
로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.
Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는
양식의 버전 레이블이 있습니다. CommunityVersion
-amzn-EmrVersion
은 0에서 시작합니다. 예를 들어, 버전 2.2의 EmrVersion
myapp-component
라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2
로 나열됩니다.
구성 요소 | 버전 | 설명 |
---|---|---|
aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK |
emr-ddb | 4.14.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 |
emr-goodies | 3.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 |
emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. |
emr-s3-dist-cp | 2.14.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. |
emr-s3-select | 2.0.0 | EMR S3Select 커넥터 |
emrfs | 2.42.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. |
flink-client | 1.11.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 |
ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. |
ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. |
ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. |
hadoop-client | 3.2.1-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 |
hadoop-hdfs-datanode | 3.2.1-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 |
hadoop-hdfs-library | 3.2.1-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 |
hadoop-hdfs-namenode | 3.2.1-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 |
hadoop-hdfs-journalnode | 3.2.1-amzn-1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 |
hadoop-httpfs-server | 3.2.1-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 |
hadoop-kms-server | 3.2.1-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 |
hadoop-mapred | 3.2.1-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 |
hadoop-yarn-nodemanager | 3.2.1-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 |
hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 |
hadoop-yarn-timeline-server | 3.2.1-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 |
hbase-hmaster | 2.2.5 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 |
hbase-region-server | 2.2.5 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 |
hbase-client | 2.2.5 | HBase 명령줄 클라이언트 |
hbase-rest-server | 2.2.5 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 |
hbase-thrift-server | 2.2.5 | HBase에 Thrift 엔드포인트를 제공하는 서비스 |
hcatalog-client | 3.1.2-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 |
hcatalog-server | 3.1.2-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 |
hcatalog-webhcat-server | 3.1.2-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 |
hive-client | 3.1.2-amzn-2 | Hive 명령줄 클라이언트 |
hive-hbase | 3.1.2-amzn-2 | Hive-hbase 클라이언트 |
hive-metastore-server | 3.1.2-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 |
hive-server2 | 3.1.2-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 |
hudi | 0.5.2-incubating-amzn-2 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. |
hudi-presto | 0.5.2-incubating-amzn-2 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. |
hudi-prestosql | 0.5.2-incubating-amzn-2 | Hudi와 함께 PrestoSQL을 실행하기 위한 번들 라이브러리. |
hudi-spark | 0.5.2-incubating-amzn-2 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. |
hue-server | 4.7.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. |
jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 |
livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 |
nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 |
mxnet | 1.6.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. |
mariadb-server | 5.5.64 이상 | MariaDB 데이터베이스 서버. |
nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 |
oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 |
oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 |
opencv | 4.3.0 | 오픈 소스 컴퓨터 비전 라이브러리. |
phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 |
phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버 |
presto-coordinator | 0.232 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
presto-worker | 0.232 | 여러 쿼리를 실행하는 서비스. |
presto-client | 0.232 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. |
prestosql-coordinator | 338 | prestosql-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
prestosql-worker | 338 | 여러 쿼리를 실행하는 서비스. |
prestosql-client | 338 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. |
pig-client | 0.17.0 | Pig 명령줄 클라이언트. |
r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 |
ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 |
spark-client | 3.0.0-amzn-0 | Spark 명령줄 클라이언트. |
spark-history-server | 3.0.0-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. |
spark-on-yarn | 3.0.0-amzn-0 | YARN용 인 메모리 실행 엔진. |
spark-yarn-slave | 3.0.0-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. |
sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. |
tensorflow | 2.1.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. |
tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. |
webserver | 2.4.41 이상 | Apache HTTP 서버. |
zeppelin-server | 0.9.0-preview1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 |
zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. |
zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. |
6.1.0 구성 분류
구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml
과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.
분류 | 설명 |
---|---|
capacity-scheduler | 하둡 capacity-scheduler.xml 파일의 값을 변경합니다. |
container-executor | 하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다. |
container-log4j | 하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다. |
core-site | 하둡 core-site.xml 파일의 값을 변경합니다. |
emrfs-site | EMRFS 설정을 변경합니다. |
flink-conf | flink-conf.yaml 설정을 변경합니다. |
flink-log4j | Flink log4j.properties 설정을 변경합니다. |
flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. |
flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. |
hadoop-env | 모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다. |
hadoop-log4j | 하둡 log4j.properties 파일의 값을 변경합니다. |
hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. |
hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. |
hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. |
hbase-env | HBase 환경의 값을 변경합니다. |
hbase-log4j | HBase hbase-log4j.properties 파일의 값을 변경합니다. |
hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
hbase-policy | HBase hbase-policy.xml 파일의 값을 변경합니다. |
hbase-site | HBase hbase-site.xml 파일의 값을 변경합니다. |
hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. |
hdfs-env | HDFS 환경의 값을 변경합니다. |
hdfs-site | HDFS hdfs-site.xml의 값을 변경합니다. |
hcatalog-env | HCatalog 환경의 값을 변경합니다. |
hcatalog-server-jndi | HCatalog jndi.properties 환경의 값을 변경합니다. |
hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml의 값을 변경합니다. |
hcatalog-webhcat-env | HCatalog WebHCat 환경의 값을 변경합니다. |
hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties의 값을 변경합니다. |
hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다. |
hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. |
hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일의 값을 변경합니다. |
hive-parquet-logging | Hive parquet-logging.properties 파일의 값을 변경합니다. |
hive-env | Hive 환경의 값을 변경합니다. |
hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일의 값을 변경합니다. |
hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다. |
hive-log4j2 | Hive hive-log4j2.properties 파일의 값을 변경합니다. |
hive-site | Hive hive-site.xml 파일의 값을 변경합니다. |
hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다. |
hue-ini | Hue ini 파일의 값을 변경합니다. |
httpfs-env | HTTPFS 환경의 값을 변경합니다. |
httpfs-site | 하둡 httpfs-site.xml 파일의 값을 변경합니다. |
hadoop-kms-acls | 하둡 kms-acls.xml 파일의 값을 변경합니다. |
hadoop-kms-env | 하둡 KMS 환경의 값을 변경합니다. |
hadoop-kms-log4j | 하둡 kms-log4j.properties 파일의 값을 변경합니다. |
hadoop-kms-site | 하둡 kms-site.xml 파일의 값을 변경합니다. |
hudi-env | Hudi 환경의 값을 변경합니다. |
jupyter-notebook-conf | Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다. |
jupyter-hub-conf | JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다. |
jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 |
jupyter-sparkmagic-conf | Sparkmagic의 config.json 파일의 값을 변경합니다. |
livy-conf | Livy의 livy.conf 파일의 값을 변경합니다. |
livy-env | Livy 환경의 값을 변경합니다. |
livy-log4j | Livy log4j.properties 설정을 변경합니다. |
mapred-env | MapReduce 애플리케이션 환경의 값을 변경합니다. |
mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다. |
oozie-env | Oozie 환경의 값을 변경합니다. |
oozie-log4j | Oozie oozie-log4j.properties 파일의 값을 변경합니다. |
oozie-site | Oozie oozie-site.xml 파일의 값을 변경합니다. |
phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
phoenix-hbase-site | Phoenix hbase-site.xml 파일의 값을 변경합니다. |
phoenix-log4j | Phoenix log4j.properties 파일의 값을 변경합니다. |
phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다. |
pig-env | Pig 환경에서 값을 변경합니다. |
pig-properties | Pig pig.properties 파일의 값을 변경합니다. |
pig-log4j | Pig log4j.properties 파일의 값을 변경합니다. |
presto-log | Presto log.properties 파일의 값을 변경합니다. |
presto-config | Presto config.properties 파일의 값을 변경합니다. |
presto-password-authenticator | Presto의 password-authenticator.properties 파일의 값을 변경합니다. |
presto-env | Presto의 presto-env.sh 파일에서 값을 변경합니다. |
presto-node | Presto의 node.properties 파일에서 값을 변경합니다. |
presto-connector-blackhole | Presto blackhole.properties 파일의 값을 변경합니다. |
presto-connector-cassandra | Presto cassandra.properties 파일의 값을 변경합니다. |
presto-connector-hive | Presto hive.properties 파일의 값을 변경합니다. |
presto-connector-jmx | Presto jmx.properties 파일의 값을 변경합니다. |
presto-connector-kafka | Presto kafka.properties 파일의 값을 변경합니다. |
presto-connector-localfile | Presto localfile.properties 파일의 값을 변경합니다. |
presto-connector-memory | Presto memory.properties 파일의 값을 변경합니다. |
presto-connector-mongodb | Presto mongodb.properties 파일의 값을 변경합니다. |
presto-connector-mysql | Presto mysql.properties 파일의 값을 변경합니다. |
presto-connector-postgresql | Presto postgresql.properties 파일의 값을 변경합니다. |
presto-connector-raptor | Presto raptor.properties 파일의 값을 변경합니다. |
presto-connector-redis | Presto redis.properties 파일의 값을 변경합니다. |
presto-connector-redshift | Presto redshift.properties 파일의 값을 변경합니다. |
presto-connector-tpch | Presto tpch.properties 파일의 값을 변경합니다. |
presto-connector-tpcds | Presto tpcds.properties 파일의 값을 변경합니다. |
prestosql-log | Presto log.properties 파일의 값을 변경합니다. |
prestosql-config | Presto config.properties 파일의 값을 변경합니다. |
prestosql-password-authenticator | Presto의 password-authenticator.properties 파일의 값을 변경합니다. |
prestosql-env | Presto의 presto-env.sh 파일에서 값을 변경합니다. |
prestosql-node | PrestoSQL의 node.properties 파일에서 값을 변경합니다. |
prestosql-connector-blackhole | PrestoSQL의 blackhole.properties 파일에서 값을 변경합니다. |
prestosql-connector-cassandra | PrestoSQL의 cassandra.properties 파일에서 값을 변경합니다. |
prestosql-connector-hive | PrestoSQL의 hive.properties 파일에서 값을 변경합니다. |
prestosql-connector-jmx | PrestoSQL의 jmx.properties 파일에서 값을 변경합니다. |
prestosql-connector-kafka | PrestoSQL의 kafka.properties 파일에서 값을 변경합니다. |
prestosql-connector-localfile | PrestoSQL의 localfile.properties 파일에서 값을 변경합니다. |
prestosql-connector-memory | PrestoSQL의 memory.properties 파일에서 값을 변경합니다. |
prestosql-connector-mongodb | PrestoSQL의 mongodb.properties 파일에서 값을 변경합니다. |
prestosql-connector-mysql | PrestoSQL의 mysql.properties 파일에서 값을 변경합니다. |
prestosql-connector-postgresql | PrestoSQL의 postgresql.properties 파일에서 값을 변경합니다. |
prestosql-connector-raptor | PrestoSQL의 raptor.properties 파일에서 값을 변경합니다. |
prestosql-connector-redis | PrestoSQL의 redis.properties 파일에서 값을 변경합니다. |
prestosql-connector-redshift | PrestoSQL의 redshift.properties 파일에서 값을 변경합니다. |
prestosql-connector-tpch | PrestoSQL의 tpch.properties 파일에서 값을 변경합니다. |
prestosql-connector-tpcds | PrestoSQL의 tpcds.properties 파일에서 값을 변경합니다. |
ranger-kms-dbks-site | Ranger KMS에서 dbks-site.xml 파일의 값을 변경합니다. |
ranger-kms-site | Ranger KMS에서 ranger-kms-site.xml 파일의 값을 변경합니다. |
ranger-kms-env | Ranger KMS 환경의 값을 변경합니다. |
ranger-kms-log4j | Ranger KM에서 kms-log4j.properties 파일의 값을 변경합니다. |
ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. |
spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. |
spark-defaults | Spark spark-defaults.conf 파일의 값을 변경합니다. |
spark-env | the Spark 환경의 값을 변경합니다. |
spark-hive-site | Spark hive-site.xml 파일의 값을 변경합니다. |
spark-log4j | Spark log4j.properties 파일의 값을 변경합니다. |
spark-metrics | Spark metrics.properties 파일의 값을 변경합니다. |
sqoop-env | Sqoop 환경의 값을 변경합니다. |
sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일의 값을 변경합니다. |
sqoop-site | Sqoop sqoop-site.xml 파일의 값을 변경합니다. |
tez-site | Tez tez-site.xml 파일의 값을 변경합니다. |
yarn-env | YARN 환경의 값을 변경합니다. |
yarn-site | YARN yarn-site.xml 파일의 값을 변경합니다. |
zeppelin-env | Zeppelin 환경의 값을 변경합니다. |
zookeeper-config | ZooKeeper zoo.cfg 파일의 값을 변경합니다. |
zookeeper-log4j | ZooKeeper log4j.properties 파일의 값을 변경합니다. |