기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon EMR 릴리스 4.6.0
4.6.0 애플리케이션 버전
이 릴리스에서는 다음 애플리케이션이 지원됩니다. Ganglia
아래 표에는이 Amazon 릴리스에서 사용할 수 있는 애플리케이션 버전EMR과 이전 세 개의 Amazon EMR 릴리스(해당하는 경우)에서 사용할 수 있는 애플리케이션 버전이 나열되어 있습니다.
Amazon의 각 릴리스에 대한 애플리케이션 버전에 대한 포괄적인 기록은 다음 주제를 EMR참조하세요.
emr-4.6.0 | emr-4.5.0 | emr-4.4.0 | emr-4.3.0 | |
---|---|---|---|---|
AWS SDK for Java | 1.10.27 | 1.10.27 | 1.10.27 | 1.10.27 |
Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 |
Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 |
AmazonCloudWatchAgent | - | - | - | - |
델타 | - | - | - | - |
Flink | - | - | - | - |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.2.0 | - | - | - |
HCatalog | 1.0.0 | 1.0.0 | 1.0.0 | - |
Hadoop | 2.7.2 | 2.7.2 | 2.7.1 | 2.7.1 |
Hive | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 |
Hudi | - | - | - | - |
Hue | 3.7.1 | 3.7.1 | 3.7.1 | 3.7.1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | - | - | - | - |
Livy | - | - | - | - |
MXNet | - | - | - | - |
Mahout | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.0 |
Oozie | - | - | - | - |
Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 |
피닉스 | - | - | - | - |
Pig | 0.14.0 | 0.14.0 | 0.14.0 | 0.14.0 |
Presto | - | - | - | - |
Presto-Sandbox | 0.143 | 0.140 | 0.136 | 0.130 |
Spark | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 |
Sqoop | - | - | - | - |
Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | - |
TensorFlow | - | - | - | - |
Tez의 Hive 실행 시간 비교 | - | - | - | - |
Trino(프레스토SQL) | - | - | - | - |
Zeppelin | - | - | - | - |
Zeppelin-Sandbox | 0.5.6 | 0.5.6 | 0.5.6 | 0.5.5 |
ZooKeeper | - | - | - | - |
ZooKeeper-샌드박스 | 3.4.8 | - | - | - |
4.6.0 릴리스 정보
다음 릴리스 정보에는 Amazon EMR 4.6.0 릴리스에 대한 정보가 포함되어 있습니다.
-
HBase 1.2.0 추가
-
Zookeeper-Sandbox 3.4.8 추가
-
Presto-Sandbox 0.143로 업그레이드
-
Amazon EMR 릴리스는 이제 Amazon Linux 2016.03.0을 기반으로 합니다. 자세한 내용은 https://aws.amazon.com/amazon-linux-ami/2016.03-release-notes/
단원을 참조하십시오. 처리량 최적화HDD(st1) EBS 볼륨 유형에 영향을 미치는 문제
Linux 커널 버전 4.2 이상의 문제는의 처리량 최적화HDD(st1) EBS 볼륨에 대한 성능에 상당한 영향을 미칩니다EMR. 이 릴리스(emr-4.6.0)는 커널 버전 4.4.5를 사용하므로 영향을 받습니다. 따라서 st1 EBS 볼륨을 사용하려면 emr-4.6.0을 사용하지 않는 것이 좋습니다. emr-4.5.0 또는 이전 Amazon EMR 릴리스를 영향 없이 st1과 함께 사용할 수 있습니다. 또한 향후 릴리스에서 수정을 제공합니다.
-
Python 기본값
이제 Python 3.4가 기본적으로 설치되지만, 시스템 기본값은 여전히 Python 2.7입니다. 부트스트랩 작업을 사용하여 Python 3.4를 시스템 기본값으로 구성할 수 있습니다. 구성을 사용하여
spark-env
분류/usr/bin/python3.4
에서 PYSPARK_PYTHON 내보내기를 로 API 설정하여에서 사용하는 Python 버전에 영향을 줄 수 있습니다 PySpark. Java 8
Presto를 제외하고 OpenJDK 1.7은 모든 애플리케이션에 JDK 사용되는 기본값입니다. 그러나 OpenJDK 1.7과 1.8이 모두 설치됩니다. 애플리케이션에 대해
JAVA_HOME
을 설정하는 방법에 대한 자세한 내용은 Java 8을 사용하도록 애플리케이션 구성을 참조하십시오.
이전 릴리스에서 해결된 알려진 문제
-
생성된 암호로 인해 애플리케이션 프로비저닝이 가끔 임의로 실패하는 문제를 수정했습니다.
-
이전에는
mysqld
가 모든 노드에 설치되었습니다. 이제 이 항목은 마스터 인스턴스에만 설치되며 선택한 애플리케이션에mysql-server
가 구성 요소로 포함되는 경우에만 설치됩니다. 현재 , HiveHCatalog, Hue, Presto-Sandbox 및 Sqoop-Sandboxmysql-server
구성 요소가 애플리케이션에 포함됩니다. -
YARN vcore가 32보다 높게 설정된 몇 가지 큰 인스턴스 유형 중 하나인 클러스터에서
maximizeResourceAllocation
옵션을 사용하는 동안 주로 Spark에서 발생하는 문제를 수정하는 emr-4.4.0의 기본값인 32에서 80yarn.scheduler.maximum-allocation-vcores
으로 변경되었습니다. 즉, c4.8xlarge, cc2.8xlarge, hs1.8xlarge, i2.8xlarge, m2.4xlarge, r3.8xlarge, d2.8xlarge 또는 m4.10xlarge가이 문제의 영향을 받았습니다. -
이제 s3-dist-cp는 모든 Amazon S3 추천EMRFS에를 사용하고 임시 HDFS 디렉터리에 더 이상 단계를 사용하지 않습니다.
-
클라이언트 측 암호화 멀티파트 업로드에 대한 예외 처리 문제를 수정했습니다.
-
사용자가 Amazon S3 스토리지 클래스를 변경할 수 있는 옵션을 추가했습니다. 기본적으로 이 설정은
STANDARD
입니다.emrfs-site
구성 분류 설정은fs.s3.storageClass
이며 가능한 값은STANDARD
,STANDARD_IA
및REDUCED_REDUNDANCY
입니다. 스토리지 클래스에 대한 자세한 내용은 Amazon Simple Storage Service 사용 설명서에서 스토리지 클래스를 참조하세요.
4.6.0 구성 요소 버전
Amazon이이 릴리스와 함께 EMR 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 다른는 Amazon에만 고유EMR하며 시스템 프로세스 및 기능에 설치됩니다. 이는 일반적으로 emr
또는 aws
로 시작됩니다. 최신 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 찾을 수 있는 최신 버전입니다. Amazon에서는 가능한 한 빨리 커뮤니티 릴리스EMR를 제공합니다.
Amazon의 일부 구성 요소는 커뮤니티 버전과 EMR 다릅니다. 이러한 구성 요소에는
양식의 버전 레이블이 있습니다. CommunityVersion
-amzn-EmrVersion
은 0에서 시작합니다. 예를 들어 버전 2.2EmrVersion
myapp-component
로 명명된 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 3회 수정된 경우 릴리스 버전은 로 나열됩니다2.2-amzn-2
.
구성 요소 | 버전 | 설명 |
---|---|---|
emr-ddb | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 |
emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 |
emr-kinesis | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. |
emr-s3-dist-cp | 2.3.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. |
emrfs | 2.6.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. |
ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. |
ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. |
ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. |
hadoop-client | 2.7.2-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 |
hadoop-hdfs-datanode | 2.7.2-amzn-1 | HDFS 블록 저장을 위한 노드 수준 서비스입니다. |
hadoop-hdfs-library | 2.7.2-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 |
hadoop-hdfs-namenode | 2.7.2-amzn-1 | HDFS 파일 이름 및 블록 위치를 추적하기 위한 서비스입니다. |
hadoop-httpfs-server | 2.7.2-amzn-1 | HTTP HDFS 작업을 위한 엔드포인트입니다. |
hadoop-kms-server | 2.7.2-amzn-1 | Hadoop의 기반 암호화 키 관리 서버입니다 KeyProvider API. |
hadoop-mapred | 2.7.2-amzn-1 | MapReduce MapReduce 애플리케이션 실행을 위한 실행 엔진 라이브러리입니다. |
hadoop-yarn-nodemanager | 2.7.2-amzn-1 | YARN 개별 노드에서 컨테이너를 관리하기 위한 서비스입니다. |
hadoop-yarn-resourcemanager | 2.7.2-amzn-1 | YARN 클러스터 리소스 및 분산 애플리케이션을 할당하고 관리하기 위한 서비스입니다. |
hbase-hmaster | 1.2.0 | 리전 조정 및 관리 명령 실행을 담당하는 HBase 클러스터를 위한 서비스입니다. |
hbase-region-server | 1.2.0 | 하나 이상의 HBase 리전을 제공하는 서비스입니다. |
hbase-client | 1.2.0 | HBase 명령줄 클라이언트. |
hbase-rest-server | 1.2.0 | 에 대한 RESTful HTTP 엔드포인트를 제공하는 서비스입니다HBase. |
hbase-thrift-server | 1.2.0 | 에 Thrift 엔드포인트를 제공하는 서비스입니다HBase. |
hcatalog-client | 1.0.0-amzn-4 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 |
hcatalog-server | 1.0.0-amzn-4 | 분산 애플리케이션을 위한 테이블 및 스토리지 관리 계층HCatalog인를 제공하는 서비스입니다. |
hcatalog-webhcat-server | 1.0.0-amzn-4 | HTTP에 REST 인터페이스를 제공하는 엔드포인트입니다HCatalog. |
hive-client | 1.0.0-amzn-4 | Hive 명령줄 클라이언트 |
hive-metastore-server | 1.0.0-amzn-4 | Hive 메타스토어에 액세스하기 위한 서비스로, Hadoop 작업SQL에서에 대한 메타데이터를 저장하는 의미 리포지토리입니다. |
hive-server | 1.0.0-amzn-4 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 |
hue-server | 3.7.1-amzn-6 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. |
mahout-client | 0.11.1 | 머신 러닝을 위한 라이브러리. |
mysql-server | 5.5 | 내SQL 데이터베이스 서버. |
oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 |
oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 |
presto-coordinator | 0.143 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
presto-worker | 0.143 | 여러 쿼리를 실행하는 서비스. |
pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. |
spark-client | 1.6.1 | Spark 명령줄 클라이언트. |
spark-history-server | 1.6.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. |
spark-on-yarn | 1.6.1 | 에 대한 인 메모리 실행 엔진입니다YARN. |
spark-yarn-slave | 1.6.1 | YARN 슬레이브에 필요한 Apache Spark 라이브러리입니다. |
sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. |
webserver | 2.4 | Apache HTTP 서버. |
zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 |
zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. |
zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. |
4.6.0 구성 분류
구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는와 같은 애플리케이션의 구성 XML 파일에 해당하는 경우가 많습니다hive-site.xml
. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.
분류 | 설명 |
---|---|
capacity-scheduler | 하둡 capacity-scheduler.xml 파일의 값을 변경합니다. |
core-site | 하둡 core-site.xml 파일의 값을 변경합니다. |
emrfs-site | EMRFS 설정을 변경합니다. |
hadoop-env | 모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다. |
hadoop-log4j | 하둡 log4j.properties 파일의 값을 변경합니다. |
hbase-env | HBase의 환경에서 값을 변경합니다. |
hbase-log4j | HBase의 hbase-log4j.properties 파일의 값을 변경합니다. |
hbase-metrics | HBase의 hadoop-metrics2-hbaase.properties 파일의 값을 변경합니다. |
hbase-policy | HBase의 hbase-policy.xml 파일의 값을 변경합니다. |
hbase-site | HBase의 hbase-site.xml 파일에서 값을 변경합니다. |
hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. |
hdfs-site | HDFS의 hdfs-site.xml에서 값을 변경합니다. |
hcatalog-env | HCatalog의 환경에서 값을 변경합니다. |
hcatalog-server-jndi | HCatalog의 jndi.properties에서 값을 변경합니다. |
hcatalog-server-proto-hive-site | HCatalog's proto-hive-site.xml의 값을 변경합니다. |
hcatalog-webhcat-env | HCatalog W의 ebHCat환경에서 값을 변경합니다. |
hcatalog-webhcat-log4j | HCatalog WebHCat의 log4j.properties에서 값을 변경합니다. |
hcatalog-webhcat-site | HCatalog WebHCat의 webhcat-site.xml 파일의 값을 변경합니다. |
hive-env | Hive 환경의 값을 변경합니다. |
hive-exec-log4j | Hive's hive-exec-log4j.properties 파일의 값을 변경합니다. |
hive-log4j | Hive's hive-log4j.properties 파일의 값을 변경합니다. |
hive-site | Hive hive-site.xml 파일의 값을 변경합니다. |
hue-ini | Hue ini 파일의 값을 변경합니다. |
httpfs-env | HTTPFS 환경의 값을 변경합니다. |
httpfs-site | 하둡 httpfs-site.xml 파일의 값을 변경합니다. |
hadoop-kms-acls | 하둡 kms-acls.xml 파일의 값을 변경합니다. |
hadoop-kms-env | 하둡 KMS 환경에서 값을 변경합니다. |
hadoop-kms-log4j | 하둡 kms-log4j.properties 파일의 값을 변경합니다. |
hadoop-kms-site | 하둡 kms-site.xml 파일의 값을 변경합니다. |
mapred-env | MapReduce 애플리케이션 환경의 값을 변경합니다. |
mapred-site | MapReduce 애플리케이션의 mapred-site.xml 파일의 값을 변경합니다. |
oozie-env | Oozie 환경의 값을 변경합니다. |
oozie-log4j | Oozie oozie-log4j.properties 파일의 값을 변경합니다. |
oozie-site | Oozie oozie-site.xml 파일의 값을 변경합니다. |
pig-properties | Pig pig.properties 파일의 값을 변경합니다. |
pig-log4j | Pig log4j.properties 파일의 값을 변경합니다. |
presto-log | Presto log.properties 파일의 값을 변경합니다. |
presto-config | Presto config.properties 파일의 값을 변경합니다. |
presto-connector-hive | Presto hive.properties 파일의 값을 변경합니다. |
spark | AmazonEMR에서 큐레이션한 Apache Spark 설정입니다. |
spark-defaults | Spark spark-defaults.conf 파일의 값을 변경합니다. |
spark-env | the Spark 환경의 값을 변경합니다. |
spark-log4j | Spark log4j.properties 파일의 값을 변경합니다. |
spark-metrics | Spark metrics.properties 파일의 값을 변경합니다. |
sqoop-env | Sqoop 환경의 값을 변경합니다. |
sqoop-oraoop-site | Sqoop OraOop의 oraoop-site.xml 파일의 값을 변경합니다. |
sqoop-site | Sqoop sqoop-site.xml 파일의 값을 변경합니다. |
yarn-env | YARN 환경의 값을 변경합니다. |
yarn-site | YARN의 yarn-site.xml 파일의 값을 변경합니다. |
zeppelin-env | Zeppelin 환경의 값을 변경합니다. |
zookeeper-config | ZooKeeper의 zoo.cfg 파일에서 값을 변경합니다. |
zookeeper-log4j | ZooKeeper의 log4j.properties 파일에서 값을 변경합니다. |