기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon EMR 릴리스 5.8.0
5.8.0 애플리케이션 버전
이 릴리스에서는 다음 애플리케이션이 지원됩니다. Flink
아래 표에는 이 Amazon 릴리스에서 사용할 수 있는 애플리케이션 버전EMR과 이전 3개의 Amazon EMR 릴리스(해당하는 경우)에서 사용할 수 있는 애플리케이션 버전이 나열되어 있습니다.
Amazon 의 각 릴리스에 대한 애플리케이션 버전의 포괄적인 기록은 다음 주제를 EMR참조하세요.
emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | |
---|---|---|---|---|
AWS SDK Java용 | 1.11.160 | 1.10.75 | 1.10.75 | 1.10.75 |
Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 |
Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 |
AmazonCloudWatchAgent | - | - | - | - |
델타 | - | - | - | - |
Flink | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 |
HCatalog | 2.3.0 | 2.1.1 | 2.1.1 | 2.1.1 |
Hadoop | 2.7.3 | 2.7.3 | 2.7.3 | 2.7.3 |
Hive | 2.3.0 | 2.1.1 | 2.1.1 | 2.1.1 |
Hudi | - | - | - | - |
Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | - | - | - | - |
Livy | - | - | - | - |
MXNet | - | - | - | - |
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 |
피닉스 | 4.11.0 | 4.11.0 | 4.11.0 | 4.9.0 |
Pig | 0.16.0 | 0.16.0 | 0.16.0 | 0.16.0 |
Presto | 0.170 | 0.170 | 0.170 | 0.170 |
Spark | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 |
Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 |
TensorFlow | - | - | - | - |
Tez의 Hive 실행 시간 비교 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 |
Trino(프레스토SQL) | - | - | - | - |
Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 |
ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 |
5.8.0 릴리스 정보
다음 릴리스 정보에는 Amazon EMR 버전 5.8.0 릴리스에 대한 정보가 포함되어 있습니다. 변경 사항은 Amazon EMR 5.7.0 릴리스와 관련이 있습니다.
최초 릴리스 날짜: 2017년 8월 10일
최근 기능 업데이트: 2017년 9월 25일
업그레이드
새로운 기능
애플리케이션 이력 보기 지원이 추가되었습니다(2017년 9월 25일). 자세한 내용은 Amazon EMR 관리 안내서의 애플리케이션 기록 보기를 참조하세요.
변경 사항, 향상된 기능 및 해결된 문제
-
AWS Glue 데이터 카탈로그와의 통합
Hive 및 Spark가 AWS Glue 데이터 카탈로그SQL를 Hive 메타데이터 스토어로 사용할 수 있는 기능이 추가되었습니다. 자세한 내용은 AWS Glue 데이터 카탈로그를 Hive의 메타스토어로 사용 및 AWS Glue 데이터 카탈로그를 Spark의 메타스토어로 사용 SQL 단원을 참조하세요.
-
클러스터 세부 정보에 애플리케이션 기록이 추가되어 YARN 애플리케이션의 기록 데이터와 Spark 애플리케이션의 추가 세부 정보를 볼 수 있습니다. 자세한 내용은 Amazon EMR 관리 안내서의 애플리케이션 기록 보기를 참조하세요.
Oozie
백포트됨 OOZIE-2748
.
Hue
백포트 HUE-5859
HBase
를 사용하여 Java Management Extensions(JMX)를 통해 HBase 마스터 서버 시작 시간을 노출하는 패치가 추가되었습니다
getMasterInitializedTime
.클러스터 시작 시간을 개선하는 패치를 추가했습니다.
알려진 문제
클러스터 시작은 모든 애플리케이션이 설치되고 기본 Amazon EBS 루트 볼륨 크기가 변경되지 않으면 실패합니다. 해결 방법으로 의
aws emr create-cluster
명령을 사용하고 더 큰--ebs-root-volume-size
파라미터를 AWS CLI 지정합니다.Hive 2.3.0에서는 기본적으로
hive.compute.query.using.stats=true
를 설정합니다. 따라서 쿼리에서는 데이터를 직접 가져오지 않고 기존 통계에서 데이터를 가져오므로 혼동될 수 있습니다. 예를 들어,hive.compute.query.using.stats=true
인 테이블이 있을 때 새 파일을LOCATION
테이블에 업로드하고 테이블에서SELECT COUNT(*)
쿼리를 실행하면 추가된 행이 선택되지 않고 통계에 있는 수치가 반환됩니다.차선책으로
ANALYZE TABLE
명령을 사용하여 새 통계를 수집하거나hive.compute.query.using.stats=false
를 설정합니다. 자세한 내용은 Apache Hive 설명서의 Statistics in Hive를 참조하십시오. Spark - Spark를 사용할 때, apppusher 대몬(daemon)과 관련된 파일 핸들러 유출 문제가 있습니다. 이는 몇 시간 또는 며칠 후에 장시간 실행되는 Spark 작업에 나타날 수 있습니다. 이 문제를 해결하려면 프라이머리 노드에 연결하고
sudo /etc/init.d/apppusher stop
을 입력합니다. 이렇게 하면 Amazon이 자동으로 다시 시작하는 해당 apppusher 데몬이 중지EMR됩니다.애플리케이션 이력
작동 중단 Spark 실행기의 기록 데이터는 사용할 수 없습니다.
진행 중인 암호화를 사용하기 위해 보안 구성을 사용하는 클러스터에서는 애플리케이션 이력을 사용할 수 없습니다.
5.8.0 구성 요소 버전
Amazon이 이 릴리스와 함께 EMR 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 다른 옵션은 Amazon에만 고유EMR하며 시스템 프로세스 및 기능에 설치됩니다. 이는 일반적으로 emr
또는 aws
로 시작됩니다. 최신 Amazon EMR 릴리스의 빅데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 찾을 수 있는 최신 버전입니다. Amazon에서는 가능한 한 빨리 커뮤니티 릴리스EMR를 제공합니다.
Amazon의 일부 구성 요소는 커뮤니티 버전과 EMR 다릅니다. 이러한 구성 요소에는
양식의 버전 레이블이 있습니다. CommunityVersion
-amzn-EmrVersion
은 0에서 시작합니다. 예를 들어 버전 2.2EmrVersion
myapp-component
로 명명된 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 3회 수정된 경우 릴리스 버전은 로 나열됩니다2.2-amzn-2
.
구성 요소 | 버전 | 설명 |
---|---|---|
emr-ddb | 4.4.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 |
emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. |
emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. |
emr-s3-dist-cp | 2.6.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. |
emrfs | 2.18.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. |
flink-client | 1.3.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 |
ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. |
ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. |
ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. |
hadoop-client | 2.7.3-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 |
hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS 블록 저장을 위한 노드 수준 서비스입니다. |
hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 |
hadoop-hdfs-namenode | 2.7.3-amzn-3 | HDFS 파일 이름 및 블록 위치를 추적하기 위한 서비스입니다. |
hadoop-httpfs-server | 2.7.3-amzn-3 | HTTP HDFS 운영을 위한 엔드포인트입니다. |
hadoop-kms-server | 2.7.3-amzn-3 | Hadoop의 를 기반으로 하는 암호화 키 관리 서버입니다 KeyProvider API. |
hadoop-mapred | 2.7.3-amzn-3 | MapReduce MapReduce 애플리케이션 실행을 위한 실행 엔진 라이브러리입니다. |
hadoop-yarn-nodemanager | 2.7.3-amzn-3 | YARN 개별 노드에서 컨테이너를 관리하기 위한 서비스입니다. |
hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | YARN 클러스터 리소스 및 분산 애플리케이션을 할당하고 관리하기 위한 서비스입니다. |
hadoop-yarn-timeline-server | 2.7.3-amzn-3 | YARN 애플리케이션에 대한 현재 및 과거 정보를 검색하는 서비스입니다. |
hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령 실행을 담당하는 HBase 클러스터를 위한 서비스입니다. |
hbase-region-server | 1.3.1 | 하나 이상의 HBase 리전에 서비스를 제공하는 서비스입니다. |
hbase-client | 1.3.1 | HBase 명령줄 클라이언트. |
hbase-rest-server | 1.3.1 | 에 대한 RESTful HTTP 엔드포인트를 제공하는 서비스입니다HBase. |
hbase-thrift-server | 1.3.1 | 에 Thrift 엔드포인트를 제공하는 서비스입니다HBase. |
hcatalog-client | 2.3.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 |
hcatalog-server | 2.3.0-amzn-0 | 분산 애플리케이션을 위한 테이블 및 스토리지 관리 계층HCatalog인 를 제공하는 서비스입니다. |
hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP 에 REST 인터페이스를 제공하는 엔드포인트입니다HCatalog. |
hive-client | 2.3.0-amzn-0 | Hive 명령줄 클라이언트 |
hive-hbase | 2.3.0-amzn-0 | Hive-hbase 클라이언트 |
hive-metastore-server | 2.3.0-amzn-0 | Hive 메타스토어에 액세스하기 위한 서비스. Hadoop 작업SQL에서 에 대한 메타데이터를 저장하는 의미 리포지토리입니다. |
hive-server2 | 2.3.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 |
hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. |
mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. |
mysql-server | 5.5.54+ | 내SQL 데이터베이스 서버. |
oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. |
oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. |
phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 |
phoenix-query-server | 4.11.0-HBase-1.3 | Avatica에 JDBC 대한 액세스 권한과 프로토콜 버퍼 및 JSON 형식 액세스를 제공하는 경량 서버 API |
presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. |
pig-client | 0.16.0-amzn-1 | Pig 명령줄 클라이언트. |
spark-client | 2.2.0 | Spark 명령줄 클라이언트. |
spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. |
spark-on-yarn | 2.2.0 | 에 대한 인 메모리 실행 엔진입니다YARN. |
spark-yarn-slave | 2.2.0 | YARN 슬레이브에 필요한 Apache Spark 라이브러리입니다. |
sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. |
tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리입니다. |
webserver | 2.4.25+ | Apache HTTP 서버. |
zeppelin-server | 0.7.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 |
zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. |
zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. |
5.8.0 구성 분류
구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 와 같은 애플리케이션의 구성 XML 파일에 해당하는 경우가 많습니다hive-site.xml
. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.
분류 | 설명 |
---|---|
capacity-scheduler | 하둡 capacity-scheduler.xml 파일의 값을 변경합니다. |
core-site | 하둡 core-site.xml 파일의 값을 변경합니다. |
emrfs-site | EMRFS 설정을 변경합니다. |
flink-conf | flink-conf.yaml 설정을 변경합니다. |
flink-log4j | Flink log4j.properties 설정을 변경합니다. |
flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. |
flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. |
hadoop-env | 모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다. |
hadoop-log4j | 하둡 log4j.properties 파일의 값을 변경합니다. |
hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. |
hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. |
hbase | Amazon에서 EMR큐레이팅한 Apache 설정입니다HBase. |
hbase-env | HBase의 환경에서 값을 변경합니다. |
hbase-log4j | HBase의 hbase-log4j.properties 파일에서 값을 변경합니다. |
hbase-metrics | HBase의 hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
hbase-policy | HBase의 hbase-policy.xml 파일에서 값을 변경합니다. |
hbase-site | HBase의 hbase-site.xml 파일에서 값을 변경합니다. |
hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. |
hdfs-site | HDFS의 hdfs-site.xml에서 값을 변경합니다. |
hcatalog-env | HCatalog의 환경에서 값을 변경합니다. |
hcatalog-server-jndi | HCatalog의 jndi.properties에서 값을 변경합니다. |
hcatalog-server-proto-hive-site | HCatalog의 proto-hive-site.xml에서 값을 변경합니다. |
hcatalog-webhcat-env | HCatalog W ebHCat의 환경에서 값을 변경합니다. |
hcatalog-webhcat-log4j2 | HCatalog W ebHCat의 log4j2.properties에서 값을 변경합니다. |
hcatalog-webhcat-site | HCatalog W ebHCat의 webhcat-site.xml 파일의 값을 변경합니다. |
hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일의 값을 변경합니다. |
hive-parquet-logging | Hive parquet-logging.properties 파일의 값을 변경합니다. |
hive-env | Hive 환경의 값을 변경합니다. |
hive-exec-log4j2 | Hive의 hive-exec-log4j2.properties 파일의 값을 변경합니다. |
hive-llap-daemon-log4j2 | Hive의 llap-daemon-log4j2.properties 파일에서 값을 변경합니다. |
hive-log4j2 | Hive hive-log4j2.properties 파일의 값을 변경합니다. |
hive-site | Hive hive-site.xml 파일의 값을 변경합니다. |
hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다. |
hue-ini | Hue ini 파일의 값을 변경합니다. |
httpfs-env | HTTPFS 환경의 값을 변경합니다. |
httpfs-site | 하둡 httpfs-site.xml 파일의 값을 변경합니다. |
hadoop-kms-acls | 하둡 kms-acls.xml 파일의 값을 변경합니다. |
hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. |
hadoop-kms-log4j | 하둡 kms-log4j.properties 파일의 값을 변경합니다. |
hadoop-kms-site | 하둡 kms-site.xml 파일의 값을 변경합니다. |
mapred-env | MapReduce 애플리케이션 환경의 값을 변경합니다. |
mapred-site | MapReduce 애플리케이션의 mapred-site.xml 파일의 값을 변경합니다. |
oozie-env | Oozie 환경의 값을 변경합니다. |
oozie-log4j | Oozie oozie-log4j.properties 파일의 값을 변경합니다. |
oozie-site | Oozie oozie-site.xml 파일의 값을 변경합니다. |
phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
phoenix-hbase-site | Phoenix hbase-site.xml 파일의 값을 변경합니다. |
phoenix-log4j | Phoenix log4j.properties 파일의 값을 변경합니다. |
phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다. |
pig-properties | Pig pig.properties 파일의 값을 변경합니다. |
pig-log4j | Pig log4j.properties 파일의 값을 변경합니다. |
presto-log | Presto log.properties 파일의 값을 변경합니다. |
presto-config | Presto config.properties 파일의 값을 변경합니다. |
presto-env | Presto의 presto-env.sh 파일에서 값을 변경합니다. |
presto-node | Presto의 node.properties 파일에서 값을 변경합니다. |
presto-connector-blackhole | Presto blackhole.properties 파일의 값을 변경합니다. |
presto-connector-cassandra | Presto cassandra.properties 파일의 값을 변경합니다. |
presto-connector-hive | Presto hive.properties 파일의 값을 변경합니다. |
presto-connector-jmx | Presto jmx.properties 파일의 값을 변경합니다. |
presto-connector-kafka | Presto kafka.properties 파일의 값을 변경합니다. |
presto-connector-localfile | Presto localfile.properties 파일의 값을 변경합니다. |
presto-connector-mongodb | Presto mongodb.properties 파일의 값을 변경합니다. |
presto-connector-mysql | Presto mysql.properties 파일의 값을 변경합니다. |
presto-connector-postgresql | Presto postgresql.properties 파일의 값을 변경합니다. |
presto-connector-raptor | Presto raptor.properties 파일의 값을 변경합니다. |
presto-connector-redis | Presto redis.properties 파일의 값을 변경합니다. |
presto-connector-tpch | Presto tpch.properties 파일의 값을 변경합니다. |
spark | Amazon에서 EMR큐레이팅한 Apache Spark 설정입니다. |
spark-defaults | Spark spark-defaults.conf 파일의 값을 변경합니다. |
spark-env | the Spark 환경의 값을 변경합니다. |
spark-hive-site | Spark hive-site.xml 파일의 값을 변경합니다. |
spark-log4j | Spark log4j.properties 파일의 값을 변경합니다. |
spark-metrics | Spark metrics.properties 파일의 값을 변경합니다. |
sqoop-env | Sqoop 환경의 값을 변경합니다. |
sqoop-oraoop-site | Sqoop OraOop의 oraoop-site.xml 파일의 값을 변경합니다. |
sqoop-site | Sqoop sqoop-site.xml 파일의 값을 변경합니다. |
tez-site | Tez tez-site.xml 파일의 값을 변경합니다. |
yarn-env | YARN 환경의 값을 변경합니다. |
yarn-site | YARN의 yarn-site.xml 파일의 값을 변경합니다. |
zeppelin-env | Zeppelin 환경의 값을 변경합니다. |
zookeeper-config | ZooKeeper의 zoo.cfg 파일에서 값을 변경합니다. |
zookeeper-log4j | ZooKeeper의 log4j.properties 파일에서 값을 변경합니다. |