Amazon EMR 릴리스 5.30.1 - Amazon EMR

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon EMR 릴리스 5.30.1

5.30.1 애플리케이션 버전

이 릴리스에서는 다음 애플리케이션이 지원됩니다. Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, ZeppelinZooKeeper.

아래 표에는 이 Amazon 릴리스에서 사용할 수 있는 애플리케이션 버전EMR과 이전 3개의 Amazon EMR 릴리스(해당하는 경우)에서 사용할 수 있는 애플리케이션 버전이 나열되어 있습니다.

Amazon 의 각 릴리스에 대한 애플리케이션 버전의 포괄적인 기록은 다음 주제를 EMR참조하세요.

애플리케이션 버전 정보
emr-5.30.1 emr-5.30.0 emr-5.29.0 emr-5.28.1
AWS SDK Java용 1.11.7591.11.7591.11.6821.11.659
Python 2.7, 3.72.7, 3.72.7, 3.62.7, 3.6
Scala 2.11.122.11.122.11.122.11.12
AmazonCloudWatchAgent - - - -
델타 - - - -
Flink1.10.01.10.01.9.11.9.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.131.4.101.4.10
HCatalog2.3.62.3.62.3.62.3.6
Hadoop2.8.52.8.52.8.52.8.5
Hive2.3.62.3.62.3.62.3.6
Hudi0.5.2-incubating0.5.2-incubating0.5.0-incubating0.5.0-incubating
Hue4.6.04.6.04.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.0.01.0.0
Livy0.7.00.7.00.6.00.6.0
MXNet1.5.11.5.11.5.11.5.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.2.05.1.05.1.0
피닉스4.14.34.14.34.14.34.14.3
Pig0.17.00.17.00.17.00.17.0
Presto0.2320.2320.2270.227
Spark2.4.52.4.52.4.42.4.4
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.14.01.14.01.14.01.14.0
Tez의 Hive 실행 시간 비교0.9.20.9.20.9.20.9.2
Trino(프레스토SQL) - - - -
Zeppelin0.8.20.8.20.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

5.30.1 릴리스 정보

다음 릴리스 정보에는 Amazon EMR 릴리스 5.30.1에 대한 정보가 포함되어 있습니다. 변경 사항은 5.30.0에 관련됩니다.

최초 릴리스 날짜: 2020년 6월 30일

최종 업데이트 날짜: 2020년 8월 24일

변경 사항, 향상된 기능 및 해결된 문제
  • 최신 Amazon EMR 릴리스는 Amazon 의 이전 에서 '최대 열린 파일' 제한이 더 낮은 문제를 수정AL2합니다EMR. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 '최대 오픈 파일' 설정이 더 높은 영구 수정이 포함됩니다.

  • 인스턴스 컨트롤러 프로세스에서 무한한 수의 프로세스를 생성하는 문제가 수정되었습니다.

  • Hue에서 Hive 쿼리를 실행할 수 없어서 'database is locked' 메시지를 표시하고 쿼리가 실행되지 않는 문제가 수정되었습니다.

  • EMR 클러스터에서 더 많은 태스크를 동시에 실행할 수 있도록 Spark 문제를 수정했습니다.

  • Jupyter 서버에서 'too many files open error'를 발생시키는 Jupyter Notebook 문제가 수정되었습니다.

  • 클러스터 시작 시간 관련 문제가 수정되었습니다.

새로운 기능
  • Tez UI 및 YARN 타임라인 서버 영구 애플리케이션 인터페이스는 Amazon EMR 버전 6.x 및 EMR 버전 5.30.1 이상에서 사용할 수 있습니다. 영구 애플리케이션 기록에 대한 원클릭 링크 액세스를 사용하면 SSH 연결을 통해 웹 프록시를 설정하지 않고도 작업 기록에 빠르게 액세스할 수 있습니다. 활성 클러스터와 종료된 클러스터에 대한 로그는 애플리케이션 종료 후 30일 동안 사용할 수 있습니다. 자세한 내용은 Amazon EMR 관리 안내서영구 애플리케이션 사용자 인터페이스 보기를 참조하세요.

  • EMR 노트북 실행APIs은 스크립트 또는 명령줄을 통해 EMR 노트북을 실행하는 데 사용할 수 있습니다. AWS 콘솔 없이 EMR 노트북 실행을 시작, 중지, 나열 및 설명할 수 있으므로 EMR 노트북을 프로그래밍 방식으로 제어할 수 있습니다. 파라미터화된 노트북 셀을 사용하면 새로운 파라미터 값 세트마다 노트북의 복사본을 만들지 않고도 노트북에 다양한 파라미터 값을 전달할 수 있습니다. EMR API 작업을 참조하세요. 샘플 코드는 프로그래밍 방식으로 EMR 노트북을 실행하는 샘플 명령을 참조하세요.

알려진 문제
  • 이전 AL2 [최신 릴리스에서 수정됨]에 대한 “최대 오픈 파일” 제한을 낮춥니다. Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 및 emr-6.2.0은 Amazon EMR 클러스터가 기본 로 생성될 때 “Max open files”에 대한 ulimit 설정이 낮은 이전 버전 ofAmazon Linux 2(AL2)를 기반으로 합니다AMI. Amazon은 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상을 EMR 릴리스하며, 더 높은 “최대 오픈 파일” 설정이 포함된 영구 수정을 포함합니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본값AMI은 latestAmazon Linux 2의 65536 파일 제한보다 낮은 “Max open files”에 대해 4096의 기본 ulimit 설정을 갖습니다AMI. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 문제를 해결하기 위해 AmazonEMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

    이 문제에 대한 영구 수정이 없는 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 인스턴스 컨트롤러 ulimit을 최대 65536개의 파일로 명시적으로 설정할 수 있습니다.

    명령줄에서 ulimit를 명시적으로 설정합니다.
    1. /etc/systemd/system/instance-controller.service를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. 다시 시작 InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    부트스트랩 작업(BA)을 사용하여 ulimit 설정

    클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • EMR 노트북

    클러스터 기본 노드에 커널과 추가 Python 라이브러리를 설치할 수 있는 기능은 EMR 버전 5.30.1에서 기본적으로 비활성화되어 있습니다. 이 기능에 대한 자세한 내용은 클러스터 프라이머리 노드에 커널 및 Python 라이브러리 설치를 참조하세요.

    이 기능을 활성화하려면 다음을 수행합니다.

    1. EMR Notebooks의 서비스 역할에 연결된 권한 정책이 다음 작업을 허용하는지 확인합니다.

      elasticmapreduce:ListSteps

      자세한 내용은 EMR 노트북의 서비스 역할을 참조하세요.

    2. AWS CLI 를 사용하여 다음 예제와 같이 EMR 노트북을 설정하는 단계를 클러스터에서 실행합니다. Replace us-east-1 클러스터가 상주하는 리전이 포함됩니다. 자세한 내용은 AWS CLI를 사용하여 클러스터에 단계 추가를 참조하세요.

      aws emr add-steps --cluster-id MyClusterID --steps Type=CUSTOM_JAR,Name=EMRNotebooksSetup,ActionOnFailure=CONTINUE,Jar=s3://us-east-1.elasticmapreduce/libs/script-runner/script-runner.jar,Args=["s3://awssupportdatasvcs.com/bootstrap-actions/EMRNotebooksSetup/emr-notebooks-setup.sh"]
  • Managed Scaling

    Presto가 설치되지 않은 5.30.0 및 5.30.1 클러스터에서 Managed Scaling을 수행하면 애플리케이션 장애가 발생하거나 균일한 인스턴스 그룹 또는 인스턴스 플릿이 ARRESTED 상태로 유지될 수 있습니다. 특히 스케일 다운 작업 이후 바로 스케일 업 작업이 수행되는 경우가 이에 해당합니다.

    해결 방법으로서 작업에 Presto가 필요하지 않더라도 Amazon EMR 릴리스 5.30.0 및 5.30.1로 클러스터를 생성할 때 설치할 애플리케이션으로 Presto를 선택합니다.

  • 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

    Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증이 있는 클러스터를 실행하는 경우 클러스터가 일정 시간 실행된 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

    해결 방법:

    • SSH 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 hadoop 사용자로.

    • 다음 명령을 실행하여 hadoop 사용자의 Kerberos 티켓을 갱신합니다.

      kinit -kt <keytab_file> <principal>

      일반적으로 keytab 파일은 /etc/hadoop.keytab에 있으며, 보안 주체는 hadoop/<hostname>@<REALM> 양식입니다.

    참고

    이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

  • Spark with Hive 파티션 위치 서식을 사용하여 Amazon S3에서 데이터를 읽고 Spark on Amazon EMR 릴리스 5.30.0~5.36.0 및 6.2.0~6.9.0을 실행하면 클러스터가 데이터를 올바르게 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.

    • 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.

    • 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 s3://bucket/table/p=as3://bucket/table/p=a b의 접두사입니다.

    • 다른 파티션 디렉터리의 접두사 뒤에 오는 첫 번째 문자의 값은 / 문자(U+002F)보다 작은 UTF-8 값입니다. 예를 들어 s3://bucket/table/p=a b에서 a와 b 사이에 있는 공백 문자(U+0020)가 이 카테고리에 속합니다. !"#$%&‘()*+,-와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 UTF-8 인코딩 테이블 및 유니코드 문자를 참조하세요.

    이 문제를 해결하려면 spark-defaults 분류에서 spark.sql.sources.fastS3PartitionDiscovery.enabled 구성을 false로 설정합니다.

5.30.1 구성 요소 버전

Amazon이 이 릴리스와 함께 EMR 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 다른 일부는 Amazon에만 고유EMR하며 시스템 프로세스 및 기능에 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 최신 Amazon EMR 릴리스의 빅데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 찾을 수 있는 최신 버전입니다. Amazon에서는 가능한 한 빨리 커뮤니티 릴리스EMR를 제공합니다.

Amazon의 일부 구성 요소는 커뮤니티 버전과 EMR 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어 버전 2.2myapp-component로 명명된 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 3회 수정된 경우 릴리스 버전은 로 나열됩니다2.2-amzn-2.

구성 요소 버전 설명
aws-sagemaker-spark-sdk1.3.0Amazon SageMaker Spark SDK
emr-ddb4.14.0하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies2.13.0편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis3.5.0하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-s3-dist-cp2.14.0Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select1.5.0EMR S3Select 커넥터
emrfs2.40.0하둡 에코시스템 애플리케이션용 Amazon S3 커넥터.
flink-client1.10.0Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션
ganglia-monitor3.7.2하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector3.7.2Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web3.7.1Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client2.8.5-amzn-6'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode2.8.5-amzn-6HDFS 블록을 저장하기 위한 노드 수준 서비스입니다.
hadoop-hdfs-library2.8.5-amzn-6HDFS 명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode2.8.5-amzn-6HDFS 파일 이름 및 블록 위치를 추적하기 위한 서비스입니다.
hadoop-hdfs-journalnode2.8.5-amzn-6HDFS HA 클러스터에서 Hadoop 파일 시스템 저널을 관리하기 위한 서비스입니다.
hadoop-httpfs-server2.8.5-amzn-6HTTP HDFS 작업을 위한 엔드포인트입니다.
hadoop-kms-server2.8.5-amzn-6Hadoop의 를 기반으로 하는 암호화 키 관리 서버입니다 KeyProvider API.
hadoop-mapred2.8.5-amzn-6MapReduce MapReduce 애플리케이션 실행을 위한 실행 엔진 라이브러리입니다.
hadoop-yarn-nodemanager2.8.5-amzn-6YARN 개별 노드에서 컨테이너를 관리하기 위한 서비스입니다.
hadoop-yarn-resourcemanager2.8.5-amzn-6YARN 클러스터 리소스 및 분산 애플리케이션을 할당하고 관리하기 위한 서비스입니다.
hadoop-yarn-timeline-server2.8.5-amzn-6YARN 애플리케이션에 대한 현재 및 과거 정보를 검색하는 서비스입니다.
hbase-hmaster1.4.13리전 조정 및 관리 명령 실행을 담당하는 HBase 클러스터를 위한 서비스입니다.
hbase-region-server1.4.13하나 이상의 HBase 리전에 서비스를 제공하는 서비스입니다.
hbase-client1.4.13HBase 명령줄 클라이언트.
hbase-rest-server1.4.13에 대한 RESTful HTTP 엔드포인트를 제공하는 서비스입니다HBase.
hbase-thrift-server1.4.13에 Thrift 엔드포인트를 제공하는 서비스입니다HBase.
hcatalog-client2.3.6-amzn-2hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server2.3.6-amzn-2분산 애플리케이션을 위한 테이블 및 스토리지 관리 계층HCatalog인 를 제공하는 서비스입니다.
hcatalog-webhcat-server2.3.6-amzn-2HTTP 엔드포인트는 에 REST 인터페이스를 제공합니다HCatalog.
hive-client2.3.6-amzn-2Hive 명령줄 클라이언트
hive-hbase2.3.6-amzn-2Hive-hbase 클라이언트
hive-metastore-server2.3.6-amzn-2Hive 메타스토어에 액세스하기 위한 서비스. Hadoop 작업SQL에서 에 대한 메타데이터를 저장하는 의미 리포지토리입니다.
hive-server22.3.6-amzn-2Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hudi0.5.2-incubating짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크.
hudi-presto0.5.2-incubatingHudi로 Presto를 실행하기 위한 번들 라이브러리.
hue-server4.6.0하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
jupyterhub1.1.0Jupyter Notebook용 다중 사용자 서버
livy-server0.7.0-incubatingREST Apache Spark와 상호 작용하기 위한 인터페이스
nginx1.12.1nginx [엔진 x]는 HTTP 및 역방향 프록시 서버입니다.
mahout-client0.13.0머신 러닝을 위한 라이브러리.
mxnet1.5.1유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mariadb-server5.5.64내SQL 데이터베이스 서버.
nvidia-cuda9.2.88Nvidia 드라이버와 Cuda 도구 키트
oozie-client5.2.0Oozie 명령줄 클라이언트
oozie-server5.2.0Oozie 워크플로 요청을 수락하는 서비스
opencv3.4.0오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library4.14.3-HBase-1.4서버 및 클라이언트의 phoenix 라이브러리
phoenix-query-server4.14.3-HBase-1.4Avatica에 JDBC 대한 액세스 권한과 프로토콜 버퍼 및 JSON 형식 액세스를 제공하는 경량 서버 API
presto-coordinator0.232presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker0.232여러 쿼리를 실행하는 서비스.
presto-client0.232Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
pig-client0.17.0Pig 명령줄 클라이언트.
r3.4.3통계 컴퓨팅용 R 프로젝트
ranger-kms-server1.2.0Apache Ranger 키 관리 시스템
spark-client2.4.5-amzn-0Spark 명령줄 클라이언트.
spark-history-server2.4.5-amzn-0완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn2.4.5-amzn-0에 대한 인 메모리 실행 엔진입니다YARN.
spark-yarn-slave2.4.5-amzn-0YARN 슬레이브에 필요한 Apache Spark 라이브러리입니다.
sqoop-client1.4.7Apache Sqoop 명령줄 클라이언트.
tensorflow1.14.0TensorFlow 고성능 수치 계산을 위한 오픈 소스 소프트웨어 라이브러리입니다.
tez-on-yarn0.9.2tez YARN 애플리케이션 및 라이브러리입니다.
webserver2.4.25+Apache HTTP 서버.
zeppelin-server0.8.2대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server3.4.14구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client3.4.14ZooKeeper 명령줄 클라이언트.

5.30.1 구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 와 같은 애플리케이션의 구성 XML 파일에 해당하는 경우가 많습니다hive-site.xml. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.

emr-5.30.1 분류
분류 설명

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

container-log4j

Hadoop YARN의 container-log4j.properties 파일의 값을 변경합니다.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

emrfs-site

EMRFS 설정을 변경합니다.

flink-conf

flink-conf.yaml 설정을 변경합니다.

flink-log4j

Flink log4j.properties 설정을 변경합니다.

flink-log4j-yarn-session

Flink log4j-yarn-session.properties 설정을 변경합니다.

flink-log4j-cli

Flink log4j-cli.properties 설정을 변경합니다.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

hbase

Amazon에서 EMR큐레이팅한 Apache 설정입니다HBase.

hbase-env

HBase의 환경에서 값을 변경합니다.

hbase-log4j

HBase의 hbase-log4j.properties 파일에서 값을 변경합니다.

hbase-metrics

HBase의 hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

hbase-policy

HBase의 hbase-policy.xml 파일의 값을 변경합니다.

hbase-site

HBase의 hbase-site.xml 파일에서 값을 변경합니다.

hdfs-encryption-zones

HDFS 암호화 영역을 구성합니다.

hdfs-site

HDFS의 hdfs-site.xml에서 값을 변경합니다.

hcatalog-env

HCatalog의 환경에서 값을 변경합니다.

hcatalog-server-jndi

HCatalog의 jndi.properties에서 값을 변경합니다.

hcatalog-server-proto-hive-site

HCatalog의 proto-hive-site.xml에서 값을 변경합니다.

hcatalog-webhcat-env

HCatalog W ebHCat의 환경에서 값을 변경합니다.

hcatalog-webhcat-log4j2

HCatalog W ebHCat의 log4j2.properties에서 값을 변경합니다.

hcatalog-webhcat-site

HCatalog W ebHCat의 webhcat-site.xml 파일의 값을 변경합니다.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

hive-env

Hive 환경의 값을 변경합니다.

hive-exec-log4j2

Hive의 hive-exec-log4j2.properties 파일에서 값을 변경합니다.

hive-llap-daemon-log4j2

Hive의 llap-daemon-log4j2.properties 파일에서 값을 변경합니다.

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

hue-ini

Hue ini 파일의 값을 변경합니다.

httpfs-env

HTTPFS 환경의 값을 변경합니다.

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

hadoop-kms-env

Hadoop KMS 환경에서 값을 변경합니다.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

hudi-env

Hudi 환경의 값을 변경합니다.

jupyter-notebook-conf

Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

jupyter-hub-conf

JupyterHubs의 jupyterhub_config.py 파일의 값을 변경합니다.

jupyter-s3-conf

Jupyter Notebook S3 지속성 구성

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

livy-env

Livy 환경의 값을 변경합니다.

livy-log4j

Livy log4j.properties 설정을 변경합니다.

mapred-env

MapReduce 애플리케이션 환경의 값을 변경합니다.

mapred-site

MapReduce 애플리케이션의 mapred-site.xml 파일의 값을 변경합니다.

oozie-env

Oozie 환경의 값을 변경합니다.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

pig-env

Pig 환경에서 값을 변경합니다.

pig-properties

Pig pig.properties 파일의 값을 변경합니다.

pig-log4j

Pig log4j.properties 파일의 값을 변경합니다.

presto-log

Presto log.properties 파일의 값을 변경합니다.

presto-config

Presto config.properties 파일의 값을 변경합니다.

presto-password-authenticator

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

ranger-kms-dbks-site

Ranger 의 dbks-site.xml 파일의 값을 변경합니다KMS.

ranger-kms-site

Ranger 의 ranger-kms-site.xml 파일에서 값을 변경합니다KMS.

ranger-kms-env

Ranger KMS 환경에서 값을 변경합니다.

ranger-kms-log4j

Ranger 의 kms-log4j.properties 파일에서 값을 변경합니다KMS.

ranger-kms-db-ca

S3 for MySQL SSL connection with Ranger 에서 CA 파일의 값을 변경합니다KMS.

recordserver-env

EMR RecordServer 환경의 값을 변경합니다.

recordserver-conf

EMR RecordServer의 erver.properties 파일에서 값을 변경합니다.

recordserver-log4j

EMR RecordServer의 log4j.properties 파일에서 값을 변경합니다.

spark

Amazon에서 EMR큐레이팅한 Apache Spark 설정입니다.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

spark-env

the Spark 환경의 값을 변경합니다.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

spark-log4j

Spark log4j.properties 파일의 값을 변경합니다.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

sqoop-env

Sqoop 환경의 값을 변경합니다.

sqoop-oraoop-site

Sqoop OraOop의 oraoop-site.xml 파일의 값을 변경합니다.

sqoop-site

Sqoop sqoop-site.xml 파일의 값을 변경합니다.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

yarn-env

YARN 환경의 값을 변경합니다.

yarn-site

YARN의 yarn-site.xml 파일의 값을 변경합니다.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

zookeeper-config

ZooKeeper의 zoo.cfg 파일의 값을 변경합니다.

zookeeper-log4j

ZooKeeper의 log4j.properties 파일에서 값을 변경합니다.