기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Python 종속성 설치
Python 종속성이란 Amazon Managed Workflows for Apache Airflow 환경에서 Apache Airflow 버전의 Apache Airflow 기본 설치에 포함되지 않은 모든 패키지 또는 배포를 말합니다. 이 주제에서는 Amazon S3 버킷의 requirements.txt
파일을 사용하여 Amazon MWAA 환경에 Apache Airflow Python 종속성을 설치하는 단계를 설명합니다.
목차
사전 조건
이 페이지의 단계를 완료하려면 먼저 다음이 필요합니다.
-
권한 - 관리자가 환경에 대한 AmazonMWAAFullConsoleAccess Word액세스 제어 정책에 대한 액세스 권한을 AWS 계정에 부여해야 합니다. 또한 실행 역할에서 Amazon MWAA 환경을 허용해야 환경에서 사용하는 AWS 리소스에 액세스할 수 있습니다.
-
액세스 — 종속성을 웹 서버에 직접 설치하기 위해 퍼블릭 리포지토리에 액세스해야 하는 경우 퍼블릭 네트워크 웹 서버 액세스로 환경을 구성해야 합니다. 자세한 내용은 Apache Airflow 액세스 모드 단원을 참조하십시오.
-
Amazon S3 구성 - DAGs,의 사용자 지정 플러그인
plugins.zip
및의 Python 종속성을 저장하는 데 사용되는 Amazon S3 버킷은 퍼블릭 액세스 차단 및 버전 관리 활성화로 구성되어야requirements.txt
합니다.
작동 방법
Amazon MWAA에서는 requirements.txt
파일을 Amazon S3 버킷에 업로드한 다음 파일을 업데이트할 때마다 Amazon MWAA 콘솔에 파일 버전을 지정하여 모든 Python 종속성을 설치합니다. Amazon MWAA를 실행pip3 install -r requirements.txt
하여 Apache Airflow 스케줄러와 각 작업자에 Python 종속성을 설치합니다.
사용자 환경에서 Python 종속성을 실행하려면 다음 세 가지 작업을 수행해야 합니다.
-
로컬에서
requirements.txt
파일을 생성합니다. -
Amazon S3 버킷에 로컬
requirements.txt
을 업로드합니다. -
Amazon MWAA 콘솔의 요구 사항 파일 필드에이 파일의 버전을 지정합니다.
참고
Amazon S3 버킷에 requirements.txt
를 생성하고 업로드하는 것이 처음인 경우 Amazon MWAA 콘솔에서 파일의 경로도 지정해야 합니다. 이 단계는 한 번만 완료하면 됩니다.
Python 종속성 개요
환경의 PyPior PyPi.org), Python 휠(.whl
) 또는 Python 종속성에서 Apache Airflow 추가 항목 및 기타 Python 종속성을 설치할 수 있습니다.PEP
Python 종속성 위치와 크기 제한
Apache Airflow 스케줄러와 작업자는 requirements.txt
파일에서 패키지를 찾고 이 패키지는 /usr/local/airflow/.local/bin
의 환경에 설치됩니다.
-
크기 제한. 전체 크기가 1GB 미만인 라이브러리를 참조하는
requirements.txt
파일을 사용하는 것이 좋습니다. Amazon MWAA가 설치해야 하는 라이브러리가 많을수록 환경의 시작 시간이 길어집니다. Amazon MWAA는 설치된 라이브러리의 크기를 명시적으로 제한하지 않지만 10분 이내에 종속성을 설치할 수 없는 경우 Fargate 서비스가 제한 시간을 초과하고 환경을 안정적인 상태로 롤백하려고 시도합니다.
requirements.txt 파일 생성
다음 단계에서는 로컬에서 requirements.txt 파일을 생성할 때 권장하는 단계를 설명합니다.
1단계: Amazon CLI MWAA 유틸리티를 사용하여 Python 종속성 테스트
-
명령줄 인터페이스(CLI) 유틸리티는 Amazon Managed Workflows for Apache Airflow 환경을 로컬로 복제합니다.
-
CLI는 Amazon MWAA 프로덕션 이미지와 유사한 Docker 컨테이너 이미지를 로컬로 빌드합니다. 이를 통해 Amazon DAGs에 배포하기 전에 로컬 Apache Airflow 환경을 실행하여 MWAA, 사용자 지정 플러그인 및 종속성을 개발하고 테스트할 수 있습니다.
-
CLI를 실행하려면 aws-mwaa-local-runner
on GitHub를 참조하세요.
2단계: requirements.txt
생성
다음 섹션에서는 requirements.txt
파일의 Python 패키지 인덱스
Amazon S3에 requirements.txt
업로드
Amazon S3 콘솔 또는 AWS Command Line Interface (AWS CLI)를 사용하여 Amazon S3 버킷에 requirements.txt
파일을 업로드할 수 있습니다.
사용 AWS CLI
AWS Command Line Interface (AWS CLI)는 명령줄 쉘의 명령을 사용하여 AWS 서비스와 상호 작용할 수 있는 오픈 소스 도구입니다. 이 페이지에서 단계를 완료하려면 다음이 필요합니다.
를 사용하여 업로드하려면 AWS CLI
-
다음 명령을 사용하여 Amazon S3 버킷을 모두 나열합니다.
aws s3 ls
-
다음 명령을 사용하여 사용자 환경의 Amazon S3 버킷에 있는 파일과 폴더를 나열합니다.
aws s3 ls s3://
YOUR_S3_BUCKET_NAME
-
다음 명령은 Amazon S3 버킷에
requirements.txt
파일을 업로드합니다.aws s3 cp requirements.txt s3://
YOUR_S3_BUCKET_NAME
/requirements.txt
Amazon S3 콘솔 사용
Amazon S3 콘솔은 Amazon S3 버킷의 리소스를 생성 및 관리할 수 있는 웹 기반 사용자 인터페이스입니다.
Amazon S3 콘솔을 사용하여 업로드하려면
-
Amazon MWAA 콘솔에서 환경 페이지를
엽니다. -
환경을 선택합니다.
-
S3 창의 Word 코드에서 S3 버킷 링크를 선택하여 Amazon S3 콘솔에서 스토리지 버킷을 엽니다. DAG S3
-
업로드를 선택합니다.
-
파일 추가를 선택합니다.
-
requirements.txt
의 로컬 사본을 선택하고 업로드를 선택합니다.
사용자 환경에 Python 종속성 설치
이 섹션에서는 requirements.txt 파일의 경로를 지정하고 업데이트될 때마다 requirements.txt 파일의 버전을 지정하여 Amazon S3 버킷에 업로드한 종속성을 설치하는 방법을 설명합니다.
Amazon MWAA 콘솔requirements.txt
에서에 대한 경로 지정(처음)
Amazon S3 버킷에 requirements.txt
를 생성하고 업로드하는 것이 처음인 경우 Amazon MWAA 콘솔에서 파일의 경로도 지정해야 합니다. 이 단계는 한 번만 완료하면 됩니다.
-
Amazon MWAA 콘솔에서 환경 페이지를
엽니다. -
환경을 선택합니다.
-
편집을 선택합니다.
-
Amazon S3 창의 DAG 코드에서 요구 사항 파일 - 선택적 필드 옆에 있는 S3 찾아보기를 선택합니다.
-
Amazon S3 버킷에 있는
requirements.txt
파일을 선택합니다. -
선택을 선택합니다.
-
다음, 환경 업데이트를 선택합니다.
환경 업데이트가 완료된 후 즉시 새 패키지 사용을 시작할 수 있습니다.
Amazon MWAA 콘솔에서 requirements.txt
버전 지정
Amazon S3 버킷에 새 버전의를 업로드할 때마다 Amazon MWAA 콘솔requirements.txt
에서 requirements.txt
파일 버전을 지정해야 합니다.
-
Amazon MWAA 콘솔에서 환경 페이지를
엽니다. -
환경을 선택합니다.
-
편집을 선택합니다.
-
Amazon S3 창의 DAG 코드에서 드롭다운 목록에서
requirements.txt
버전을 선택합니다. -
다음, 환경 업데이트를 선택합니다.
환경 업데이트가 완료된 후 즉시 새 패키지 사용을 시작할 수 있습니다.
사용자 requirements.txt
의 로그 보기
워크플로우를 예약하고 dags
폴더를 구문 분석하는 스케줄러에 대한 Apache Airflow 로그를 볼 수 있습니다. 다음 단계에서는 Amazon MWAA 콘솔에서 스케줄러의 로그 그룹을 열고 CloudWatch 로그 콘솔에서 Apache Airflow 로그를 보는 방법을 설명합니다.
requirements.txt
에 대한 로그를 보려면
-
Amazon MWAA 콘솔에서 환경 페이지를
엽니다. -
환경을 선택합니다.
-
모니터링 창에서 Airflow 스케줄러 로그 그룹을 선택합니다.
-
로그 스트림에서
requirements_install_ip
로그를 선택합니다. -
/usr/local/airflow/.local/bin
에서 환경에 설치된 패키지 목록을 볼 수 있습니다. 예제:Collecting appdirs==1.4.4 (from -r /usr/local/airflow/.local/bin (line 1)) Downloading https://files.pythonhosted.org/packages/3b/00/2344469e2084fb28kjdsfiuyweb47389789vxbmnbjhsdgf5463acd6cf5e3db69324/appdirs-1.4.4-py2.py3-none-any.whl Collecting astroid==2.4.2 (from -r /usr/local/airflow/.local/bin (line 2))
-
패키지 목록을 검토하고 설치 중에 오류가 발생했는지 여부를 검토합니다. 문제가 발생한 경우, 다음과 비슷한 오류가 표시될 수 있습니다.
2021-03-05T14:34:42.731-07:00 No matching distribution found for LibraryName==1.0.0 (from -r /usr/local/airflow/.local/bin (line 4)) No matching distribution found for LibraryName==1.0.0 (from -r /usr/local/airflow/.local/bin (line 4))
다음 단계
-
DAGs on GitHub를 사용하여 로컬에서 aws-mwaa-local-runner
, 사용자 지정 플러그인 및 Python 종속성을 테스트합니다.