Python 종속성 설치 - Amazon Managed Workflows for Apache Airflow

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Python 종속성 설치

Python 종속성이란 Amazon Managed Workflows for Apache Airflow 환경에서 Apache Airflow 버전의 Apache Airflow 기본 설치에 포함되지 않은 모든 패키지 또는 배포를 말합니다. 이 주제에서는 Amazon S3 버킷의 requirements.txt 파일을 사용하여 Amazon MWAA 환경에 Apache Airflow Python 종속성을 설치하는 단계를 설명합니다.

사전 조건

이 페이지의 단계를 완료하려면 먼저 다음이 필요합니다.

  • 권한 - 관리자가 환경에 대한 AmazonMWAAFullConsoleAccess Word액세스 제어 정책에 대한 액세스 권한을 AWS 계정에 부여해야 합니다. 또한 실행 역할에서 Amazon MWAA 환경을 허용해야 환경에서 사용하는 AWS 리소스에 액세스할 수 있습니다.

  • 액세스 — 종속성을 웹 서버에 직접 설치하기 위해 퍼블릭 리포지토리에 액세스해야 하는 경우 퍼블릭 네트워크 웹 서버 액세스로 환경을 구성해야 합니다. 자세한 내용은 Apache Airflow 액세스 모드 단원을 참조하십시오.

  • Amazon S3 구성 - DAGs,의 사용자 지정 플러그인 plugins.zip및의 Python 종속성을 저장하는 데 사용되는 Amazon S3 버킷퍼블릭 액세스 차단 및 버전 관리 활성화로 구성되어야 requirements.txt 합니다.

작동 방법

Amazon MWAA에서는 requirements.txt 파일을 Amazon S3 버킷에 업로드한 다음 파일을 업데이트할 때마다 Amazon MWAA 콘솔에 파일 버전을 지정하여 모든 Python 종속성을 설치합니다. Amazon MWAA를 실행pip3 install -r requirements.txt하여 Apache Airflow 스케줄러와 각 작업자에 Python 종속성을 설치합니다.

사용자 환경에서 Python 종속성을 실행하려면 다음 세 가지 작업을 수행해야 합니다.

  1. 로컬에서 requirements.txt 파일을 생성합니다.

  2. Amazon S3 버킷에 로컬 requirements.txt을 업로드합니다.

  3. Amazon MWAA 콘솔의 요구 사항 파일 필드에이 파일의 버전을 지정합니다.

참고

Amazon S3 버킷에 requirements.txt를 생성하고 업로드하는 것이 처음인 경우 Amazon MWAA 콘솔에서 파일의 경로도 지정해야 합니다. 이 단계는 한 번만 완료하면 됩니다.

Python 종속성 개요

환경의 PyPior PyPi.org), Python 휠(.whl) 또는 Python 종속성에서 Apache Airflow 추가 항목 및 기타 Python 종속성을 설치할 수 있습니다.PEP

Python 종속성 위치와 크기 제한

Apache Airflow 스케줄러작업자requirements.txt 파일에서 패키지를 찾고 이 패키지는 /usr/local/airflow/.local/bin의 환경에 설치됩니다.

  • 크기 제한. 전체 크기가 1GB 미만인 라이브러리를 참조하는 requirements.txt 파일을 사용하는 것이 좋습니다. Amazon MWAA가 설치해야 하는 라이브러리가 많을수록 환경의 시작 시간이 길어집니다. Amazon MWAA는 설치된 라이브러리의 크기를 명시적으로 제한하지 않지만 10분 이내에 종속성을 설치할 수 없는 경우 Fargate 서비스가 제한 시간을 초과하고 환경을 안정적인 상태로 롤백하려고 시도합니다.

requirements.txt 파일 생성

다음 단계에서는 로컬에서 requirements.txt 파일을 생성할 때 권장하는 단계를 설명합니다.

1단계: Amazon CLI MWAA 유틸리티를 사용하여 Python 종속성 테스트

  • 명령줄 인터페이스(CLI) 유틸리티는 Amazon Managed Workflows for Apache Airflow 환경을 로컬로 복제합니다.

  • CLI는 Amazon MWAA 프로덕션 이미지와 유사한 Docker 컨테이너 이미지를 로컬로 빌드합니다. 이를 통해 Amazon DAGs에 배포하기 전에 로컬 Apache Airflow 환경을 실행하여 MWAA, 사용자 지정 플러그인 및 종속성을 개발하고 테스트할 수 있습니다.

  • CLI를 실행하려면 aws-mwaa-local-runner on GitHub를 참조하세요.

2단계: requirements.txt 생성

다음 섹션에서는 requirements.txt 파일의 Python 패키지 인덱스에서 Python 종속성을 지정하는 방법을 설명합니다.

Apache Airflow v2
  1. 로컬 테스트. requirements.txt 파일을 생성하기 전에 라이브러리를 반복적으로 추가하여 패키지와 버전의 적절한 조합을 찾습니다. Amazon MWAA CLI 유틸리티를 실행하려면 aws-mwaa-local-runner on GitHub를 참조하세요.

  2. Apache Airflow 패키지 엑스트라를 검토합니다. Amazon MWAA의 Apache Airflow v2에 설치된 패키지 목록을 보려면 GitHub 웹 사이트의 Amazon MWAA 로컬 러너requirements.txt를 참조하세요.

  3. 제약 조건 문을 추가합니다. requirements.txt 파일 상단에 Apache Airflow v2 환경에 대한 제약 조건 파일을 추가합니다. Apache Airflow 제약 조건 파일은 Apache Airflow 릴리스 당시 사용할 수 있는 공급자 버전을 지정합니다.

    Apache Airflow v2.7.2부터 요구 사항 파일에 --constraint 문이 포함되어야 합니다. 제약 조건을 제공하지 않으면 Amazon MWAA는 요구 사항에 나열된 패키지가 사용 중인 Apache Airflow 버전과 호환되는지 확인하기 위해 해당 패키지를 지정합니다.

    다음 예에서는를 바꿉니다.{environment-version} 환경의 버전 번호와 함께 {Python-version} 사용자 환경과 호환되는 Python 버전을 사용합니다.

    Apache Airflow 환경과 호환되는 Python 버전에 대한 자세한 내용은 Apache Airflow 버전 단원을 참조하세요.

    --constraint "https://raw.githubusercontent.com/apache/airflow/constraints-{Airflow-version}/constraints-{Python-version}.txt"

    제약 조건 파일에서 xyz==1.0 패키지가 사용자 환경의 다른 패키지와 호환되지 않는 것으로 확인되면 호환되지 않는 라이브러리가 환경에 설치되는 것을 방지하기 위해 pip3 install이 실패합니다. 패키지에 대한 설치가 실패하면 CloudWatch Logs의 해당 로그 스트림에서 각 Apache Airflow 구성 요소(스케줄러, 작업자 및 웹 서버)에 대한 오류 로그를 볼 수 있습니다. 로그 형식에 대한 자세한 내용은 Amazon CloudWatch에서 Airflow 로그 보기 섹션을 참조하십시오.

  4. Apache Airflow 패키지 패키지 엑스트라 및 버전(==)을 추가합니다. 이렇게 하면 이름은 같지만 버전이 다른 패키지가 사용자 환경에 설치되는 것을 방지할 수 있습니다.

    apache-airflow[package-extra]==2.5.1
  5. Python 라이브러리. requirements.txt 파일에 패키지 이름과 버전(==)을 추가합니다. 이렇게 하면 향후 PyPi.org의 중단 업데이트가 자동으로 적용되지 않도록 방지할 수 있습니다.

    library == version
    예 Boto3 및 psycopg2-binary

    이 예제는 데모용으로 제공됩니다. boto 및 psycopg2-binary 라이브러리는 Apache Airflow v2 기본 설치에 포함되어 있으며 requirements.txt 파일에서 지정할 필요가 없습니다.

    boto3==1.17.54 boto==2.49.0 botocore==1.20.54 psycopg2-binary==2.8.6

    패키지가 버전 없이 지정된 경우 Amazon MWAA는 PyPi.org에서 패키지의 최신 버전을 설치합니다. 이 버전은 requirements.txt에 있는 다른 패키지와 충돌할 수 있습니다.

Apache Airflow v1
  1. 로컬 테스트. requirements.txt 파일을 생성하기 전에 라이브러리를 반복적으로 추가하여 패키지와 버전의 적절한 조합을 찾습니다. Amazon MWAA CLI 유틸리티를 실행하려면 aws-mwaa-local-runner on GitHub를 참조하세요.

  2. Airflow 패키지 추가 내용을 검토합니다. https://raw.githubusercontent.com/apache/airflow/constraints-1.10.12/constraintsWord-3.7.txt에서 Apache Airflow v1.10.12에 사용할 수 있는 패키지 목록을 검토합니다.

  3. 제약조건 파일 추가 requirements.txt 파일 상단에 Apache Airflow v1.10.12의 제약 조건 파일을 추가합니다. 제약 조건 파일에서 xyz==1.0 패키지가 사용자 환경의 다른 패키지와 호환되지 않는 것으로 확인되면 pip3 install은 호환되지 않는 라이브러리가 환경에 설치되는 것을 막을 수 없습니다.

    --constraint "https://raw.githubusercontent.com/apache/airflow/constraints-1.10.12/constraints-3.7.txt"
  4. Apache Airflow v1.10.12 패키지. Airflow 패키지 엑스트라 및 Apache Airflow v1.10.12 버전(==)을 추가합니다. 이렇게 하면 이름은 같지만 버전이 다른 패키지가 사용자 환경에 설치되는 것을 방지할 수 있습니다.

    apache-airflow[package]==1.10.12
    예 보안 쉘(SSH)

    다음 예제 requirements.txt 파일은 SSH for Apache Airflow v1.10.12을 설치합니다.

    apache-airflow[ssh]==1.10.12
  5. Python 라이브러리. requirements.txt 파일에 패키지 이름과 버전(==)을 추가합니다. 이렇게 하면 향후 PyPi.org의 중단 업데이트가 자동으로 적용되지 않도록 방지할 수 있습니다.

    library == version
    예 Boto3

    다음 예제 requirements.txt 파일은 Apache Airflow v1.10.12용 Boto3 라이브러리를 설치합니다.

    boto3 == 1.17.4

    패키지가 버전 없이 지정된 경우 Amazon MWAA는 PyPi.org에서 최신 버전의 패키지를 설치합니다. 이 버전은 requirements.txt에 있는 다른 패키지와 충돌할 수 있습니다.

Amazon S3에 requirements.txt 업로드

Amazon S3 콘솔 또는 AWS Command Line Interface (AWS CLI)를 사용하여 Amazon S3 버킷에 requirements.txt 파일을 업로드할 수 있습니다.

사용 AWS CLI

AWS Command Line Interface (AWS CLI)는 명령줄 쉘의 명령을 사용하여 AWS 서비스와 상호 작용할 수 있는 오픈 소스 도구입니다. 이 페이지에서 단계를 완료하려면 다음이 필요합니다.

를 사용하여 업로드하려면 AWS CLI
  1. 다음 명령을 사용하여 Amazon S3 버킷을 모두 나열합니다.

    aws s3 ls
  2. 다음 명령을 사용하여 사용자 환경의 Amazon S3 버킷에 있는 파일과 폴더를 나열합니다.

    aws s3 ls s3://YOUR_S3_BUCKET_NAME
  3. 다음 명령은 Amazon S3 버킷에 requirements.txt 파일을 업로드합니다.

    aws s3 cp requirements.txt s3://YOUR_S3_BUCKET_NAME/requirements.txt

Amazon S3 콘솔 사용

Amazon S3 콘솔은 Amazon S3 버킷의 리소스를 생성 및 관리할 수 있는 웹 기반 사용자 인터페이스입니다.

Amazon S3 콘솔을 사용하여 업로드하려면
  1. Amazon MWAA 콘솔에서 환경 페이지를 엽니다.

  2. 환경을 선택합니다.

  3. S3 창의 Word 코드에서 S3 버킷 링크를 선택하여 Amazon S3 콘솔에서 스토리지 버킷을 엽니다. DAG S3

  4. 업로드를 선택합니다.

  5. 파일 추가를 선택합니다.

  6. requirements.txt의 로컬 사본을 선택하고 업로드를 선택합니다.

사용자 환경에 Python 종속성 설치

이 섹션에서는 requirements.txt 파일의 경로를 지정하고 업데이트될 때마다 requirements.txt 파일의 버전을 지정하여 Amazon S3 버킷에 업로드한 종속성을 설치하는 방법을 설명합니다.

Amazon MWAA 콘솔requirements.txt에서에 대한 경로 지정(처음)

Amazon S3 버킷에 requirements.txt를 생성하고 업로드하는 것이 처음인 경우 Amazon MWAA 콘솔에서 파일의 경로도 지정해야 합니다. 이 단계는 한 번만 완료하면 됩니다.

  1. Amazon MWAA 콘솔에서 환경 페이지를 엽니다.

  2. 환경을 선택합니다.

  3. 편집을 선택합니다.

  4. Amazon S3 창의 DAG 코드에서 요구 사항 파일 - 선택적 필드 옆에 있는 S3 찾아보기를 선택합니다.

  5. Amazon S3 버킷에 있는 requirements.txt 파일을 선택합니다.

  6. 선택을 선택합니다.

  7. 다음, 환경 업데이트를 선택합니다.

환경 업데이트가 완료된 후 즉시 새 패키지 사용을 시작할 수 있습니다.

Amazon MWAA 콘솔에서 requirements.txt 버전 지정

Amazon S3 버킷에 새 버전의를 업로드할 때마다 Amazon MWAA 콘솔requirements.txt에서 requirements.txt 파일 버전을 지정해야 합니다.

  1. Amazon MWAA 콘솔에서 환경 페이지를 엽니다.

  2. 환경을 선택합니다.

  3. 편집을 선택합니다.

  4. Amazon S3 창의 DAG 코드에서 드롭다운 목록에서 requirements.txt 버전을 선택합니다.

  5. 다음, 환경 업데이트를 선택합니다.

환경 업데이트가 완료된 후 즉시 새 패키지 사용을 시작할 수 있습니다.

사용자 requirements.txt의 로그 보기

워크플로우를 예약하고 dags 폴더를 구문 분석하는 스케줄러에 대한 Apache Airflow 로그를 볼 수 있습니다. 다음 단계에서는 Amazon MWAA 콘솔에서 스케줄러의 로그 그룹을 열고 CloudWatch 로그 콘솔에서 Apache Airflow 로그를 보는 방법을 설명합니다.

requirements.txt에 대한 로그를 보려면
  1. Amazon MWAA 콘솔에서 환경 페이지를 엽니다.

  2. 환경을 선택합니다.

  3. 모니터링 창에서 Airflow 스케줄러 로그 그룹을 선택합니다.

  4. 로그 스트림에서 requirements_install_ip 로그를 선택합니다.

  5. /usr/local/airflow/.local/bin에서 환경에 설치된 패키지 목록을 볼 수 있습니다. 예제:

    Collecting appdirs==1.4.4 (from -r /usr/local/airflow/.local/bin (line 1)) Downloading https://files.pythonhosted.org/packages/3b/00/2344469e2084fb28kjdsfiuyweb47389789vxbmnbjhsdgf5463acd6cf5e3db69324/appdirs-1.4.4-py2.py3-none-any.whl Collecting astroid==2.4.2 (from -r /usr/local/airflow/.local/bin (line 2))
  6. 패키지 목록을 검토하고 설치 중에 오류가 발생했는지 여부를 검토합니다. 문제가 발생한 경우, 다음과 비슷한 오류가 표시될 수 있습니다.

    2021-03-05T14:34:42.731-07:00 No matching distribution found for LibraryName==1.0.0 (from -r /usr/local/airflow/.local/bin (line 4)) No matching distribution found for LibraryName==1.0.0 (from -r /usr/local/airflow/.local/bin (line 4))

다음 단계

  • DAGs on GitHub를 사용하여 로컬에서 aws-mwaa-local-runner, 사용자 지정 플러그인 및 Python 종속성을 테스트합니다.