Amazon SageMaker 및 Azure를 사용하여 MLOps 워크플로 구축 DevOps - AWS 권장 가이드

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon SageMaker 및 Azure를 사용하여 MLOps 워크플로 구축 DevOps

작성자: Deepika Kumar(AWS), Philips Kokoh Prasetyo(AWS) 및 Sara van de Moosdijk(AWS)

환경: 프로덕션

기술: 기계 학습 및 AI DevOps

워크로드: Microsoft

AWS 서비스: Amazon API Gateway, Amazon ECR, Amazon EventBridge, AWS Lambda, Amazon S3, Amazon SageMaker

요약

기계 학습 작업(MLOps)은 기계 학습(ML) 워크플로 및 배포를 자동화하고 단순화하는 일련의 사례입니다. MLOps 는 ML 수명 주기를 자동화하는 데 중점을 둡니다. 이를 통해 모델을 개발할 뿐만 아니라 체계적이고 반복적으로 배포, 모니터링 및 재훈련할 수 있습니다. ML에 DevOps 원칙을 제공합니다. MLOps 를 사용하면 ML 모델을 더 빠르게 배포하고, 시간이 지남에 따라 정확도를 높이고, 실제 비즈니스 가치를 제공한다는 보장을 강화할 수 있습니다.

조직은 MLOps 여정을 시작하기 전에 기존 DevOps 도구와 데이터 스토리지 솔루션을 사용하는 경우가 많습니다. 이 패턴은 Microsoft Azure와 의 강점을 모두 활용하는 방법을 보여줍니다 AWS. Azure를 Amazon DevOps 과 통합하여 MLOps 워크플로를 생성하는 SageMaker 데 도움이 됩니다.

이 솔루션은 Azure와 간의 작업을 간소화합니다 AWS. Azure를 개발 및 기계 학습 AWS 에 사용할 수 있습니다. 에서 데이터 처리, 훈련 및 배포를 포함하여 기계 학습 모델을 처음부터 끝까지 만드는 효과적인 프로세스를 촉진합니다 AWS. 효율성을 위해 Azure DevOps 파이프라인을 통해 이러한 프로세스를 관리합니다. 이 솔루션은 미세 조정, 벡터 데이터베이스 및 프롬프트 관리를 포함하는 생성형 AI의 파운데이션 모델 작업(FMOps) 및 대규모 언어 모델 작업(LLMOps)에 적용됩니다.

사전 조건 및 제한 사항

사전 조건 

  • Azure 구독 - 지속적 통합 및 지속적 배포(CI/CD) 파이프라인을 설정하기 DevOps위한 Azure 와 같은 Azure 서비스에 대한 액세스입니다.

  • 활성 AWS 계정 - 이 패턴에 AWS 서비스 사용되는 를 사용할 수 있는 권한입니다.

  • 데이터 - 기계 학습 모델 훈련을 위한 기록 데이터에 대한 액세스입니다.

  • ML 개념 숙지 - Python, Jupyter Notebooks 및 기계 학습 모델 개발에 대한 이해.

  • 보안 구성 - 안전한 데이터 전송 및 액세스를 보장하기 AWS 위해 Azure 및 모두에서 역할, 정책 및 권한을 올바르게 구성합니다.

  • (선택 사항) 벡터 데이터베이스 - 벡터 데이터베이스에 대해 Retrieval Augmented Generation(RAG) 접근 방식과 타사 서비스를 사용하는 경우 외부 벡터 데이터베이스에 액세스해야 합니다.

제한 사항

  • 이 지침에서는 안전한 크로스 클라우드 데이터 전송에 대해 논의하지 않습니다. 클라우드 간 데이터 전송에 대한 자세한 내용은 AWS 하이브리드 및 멀티클라우드 솔루션 섹션을 참조하세요.

  • 멀티클라우드 솔루션은 실시간 데이터 처리 및 모델 추론의 지연 시간을 증가시킬 수 있습니다.

  • 이 지침은 다중 계정 MLOps 아키텍처의 한 가지 예를 제공합니다. 기계 학습 및 AWS 전략에 따라 조정이 필요합니다.

  • 이 지침에서는 Amazon 이외의 AI/ML 서비스 사용에 대해서는 설명하지 않습니다 SageMaker.

  • 일부 AWS 서비스 는 일부 에서 사용할 수 없습니다 AWS 리전. 리전 가용성은 AWS 서비스 리전별 섹션을 참조하세요. 특정 엔드포인트는 서비스 엔드포인트 및 할당량 페이지를 참조하고 서비스의 링크를 선택합니다.

아키텍처

대상 아키텍처

대상 아키텍처는 Azure를 Amazon DevOps 와 통합하여 클라우드 간 ML 워크플로를 SageMaker생성합니다. 모델 구축 및 배포, 데이터 준비, 인프라 관리용 CI/CD processes and SageMaker for ML model training and deployment. It outlines the process of obtaining data (from sources such as Amazon S3, nowflake, and Azure Data Lake) through model building and deployment. Key components include CI/CD 파이프라인에는 Azure를 사용하고 ML 모델의 훈련 및 미세 조정, 평가 및 배포 SageMaker 에는 Amazon을 사용합니다. 이 아키텍처는 클라우드 플랫폼 전반에서 효율적이고 자동화되며 확장 가능한 ML 워크플로를 제공하도록 설계되었습니다.

Azure Devops 및 를 사용하는 MLOps 워크플로의 아키텍처 다이어그램입니다 SageMaker.

아키텍처는 다음 구성 요소로 구성됩니다.

  1. 데이터 과학자는 개발 계정에서 ML 실험을 수행하여 다양한 데이터 소스를 사용하여 ML 사용 사례에 대한 다양한 접근 방식을 탐색합니다. 데이터 과학자는 단위 테스트 및 실험을 수행하고 실험을 추적하기 위해 Amazon을 SageMaker 와 함께 MLflow사용할 수 있습니다. 생성형 AI 모델 개발에서 데이터 과학자는 Amazon 모델 허브의 파운데이션 SageMaker JumpStart 모델을 미세 조정합니다. 모델 평가 후 데이터 과학자는 코드를 Azure 에서 호스팅되는 모델 빌드 리포지토리로 푸시하고 병합합니다 DevOps. 이 리포지토리에는 다단계 모델 구축 파이프라인에 대한 코드가 포함되어 있습니다.

  2. Azure 에서 지속적 통합(CI)을 제공하는 DevOps모델 빌드 파이프라인은 코드가 기본 브랜치로 병합되면 자동으로 또는 수동으로 활성화할 수 있습니다. 자동화 계정에서 이렇게 하면 정확도를 기반으로 데이터 사전 처리, 모델 훈련 및 미세 조정, 모델 평가 및 조건부 모델 등록을 위한 SageMaker 파이프라인이 활성화됩니다.

  3. 자동화 계정은 ML 환경(Amazon ECR), 모델(Amazon S3), 모델 메타데이터(SageMaker 모델 레지스트리), 기능(SageMaker 특징 스토어), 자동 파이프라인(SageMaker 파이프라인) 및 ML 로그 인사이트()를 호스팅하는 ML 플랫폼 전반의 중앙 계정입니다CloudWatch. 생성형 AI 워크로드의 경우 다운스트림 애플리케이션의 프롬프트에 대한 추가 평가가 필요할 수 있습니다. 프롬프트 관리 애플리케이션은 프로세스를 간소화하고 자동화하는 데 도움이 됩니다. 이 계정을 사용하면 ML 자산을 재사용할 수 있으며 ML 사용 사례의 전송을 가속화하는 모범 사례를 적용할 수 있습니다.

  4. 검토를 위해 최신 모델 버전이 SageMaker 모델 레지스트리에 추가됩니다. 모델 버전과 각 아티팩트(계보 및 메타데이터)를 추적합니다. 또한 모델의 상태(승인, 거부 또는 보류 중)를 관리하고 다운스트림 배포용 버전을 관리합니다.

  5. 스튜디오 인터페이스 또는 API 호출을 통해 모델 레지스트리의 훈련된 모델을 승인하면 이벤트를 Amazon 로 전송할 수 있습니다 EventBridge. Azure 에서 모델 배포 파이프라인을 EventBridge 시작합니다 DevOps.

  6. 지속적인 배포(CD)를 제공하는 모델 배포 파이프라인은 모델 배포 리포지토리에서 소스를 확인합니다. 소스에는 코드, 모델 배포에 대한 구성 및 품질 벤치마크에 대한 테스트 스크립트가 포함되어 있습니다. 모델 배포 파이프라인은 추론 유형에 맞게 조정할 수 있습니다.

  7. 품질 관리 확인 후 모델 배포 파이프라인은 모델을 스테이징 계정에 배포합니다. 스테이징 계정은 프로덕션 계정의 사본이며 통합 테스트 및 평가에 사용됩니다. 배치 변환의 경우 모델 배포 파이프라인은 승인된 최신 모델 버전을 사용하도록 배치 추론 프로세스를 자동으로 업데이트할 수 있습니다. 실시간, 서버리스 또는 비동기 추론의 경우 각 모델 엔드포인트를 설정하거나 업데이트합니다.

  8. 스테이징 계정에서 테스트에 성공하면 모델 배포 파이프라인을 통해 수동으로 승인하여 모델을 프로덕션 계정에 배포할 수 있습니다. 이 파이프라인은 모델 모니터링 및 데이터 피드백 메커니즘을 포함하여 프로덕션 배포 단계에서 프로덕션 엔드포인트를 프로비저닝합니다.

  9. 모델이 프로덕션 상태가 되면 SageMaker 모델 모니터 및 SageMaker Clarify와 같은 도구를 사용하여 편향을 식별하고, 드리프트를 감지하고, 모델의 성능을 지속적으로 모니터링합니다.

자동화 및 규모 조정

인프라를 코드로 사용하여(IaC ) 여러 계정 및 환경에 자동으로 배포합니다. MLOps 워크플로를 설정하는 프로세스를 자동화하면 ML 팀이 다른 프로젝트에서 사용하는 환경을 분리할 수 있습니다. 는 인프라를 코드로 처리하여 AWS 리소스를 모델링, 프로비저닝 및 관리하는 데 AWS CloudFormation 도움이 됩니다.

도구

AWS 서비스

  • Amazon SageMaker은 관리형 ML 서비스로, ML 모델을 빌드 및 훈련한 다음 프로덕션 준비 호스팅 환경에 배포할 수 있도록 지원합니다.

  • AWS Glue 는 완전 관리형 추출, 변환 및 로드(ETL) 서비스입니다. 이를 통해 데이터 스토어와 데이터 스트림 간에 데이터를 안정적으로 분류, 정리, 보강하고 이동할 수 있습니다.

  • Amazon Simple Storage Service(S3)는 원하는 양의 데이터를 저장, 보호 및 검색하는 데 도움이 되는 클라우드 기반 객체 스토리지 서비스입니다. 이 패턴에서 Amazon S3는 데이터 스토리지에 사용되며 모델 훈련 및 모델 객체를 SageMaker 위해 와 통합됩니다.

  • AWS Lambda는 서버를 프로비저닝하거나 관리할 필요 없이 코드를 실행하는 데 도움이 되는 컴퓨팅 서비스입니다. 필요할 때만 코드를 실행하며 자동으로 확장이 가능하므로 사용한 컴퓨팅 시간만큼만 비용을 지불합니다. 이 패턴에서 Lambda는 데이터 전처리 및 후처리 작업에 사용됩니다.

  • Amazon Elastic Container Registry(Amazon ECR)는 안전하고 확장 가능하며 신뢰할 수 있는 관리형 컨테이너 이미지 레지스트리 서비스입니다. 이 패턴에서는 SageMaker 가 훈련 및 배포 환경으로 사용하는 Docker 컨테이너를 저장합니다.

  • Amazon EventBridge은 애플리케이션을 다양한 소스의 실시간 데이터와 연결하는 데 도움이 되는 서버리스 이벤트 버스 서비스입니다. 이 패턴에서는 자동 모델 재훈련 또는 배포를 시작하는 이벤트 기반 또는 시간 기반 워크플로를 EventBridge 조정합니다.

  • Amazon API Gateway는 모든 규모의 , 및 REST를 생성, 게시, 유지 관리HTTP, 모니터링 및 WebSocket APIs 보호하는 데 도움이 됩니다.  이 패턴에서는 SageMaker 엔드포인트에 대한 외부 대면 단일 진입점을 생성하는 데 사용됩니다.

  • RAG 애플리케이션의 경우 Amazon OpenSearch ServiceAmazon RDS for PostgreSQL AWS 서비스와 같은 를 사용하여 에 내부 데이터를 제공하는 벡터 임베딩을 저장할 수 LLM 있습니다.

기타 도구

  • Azure DevOps는 CI/CD 파이프라인을 관리하고 코드 빌드, 테스트 및 배포를 용이하게 하는 데 도움이 됩니다.

  • Azure Data Lake Storage 또는 Snowflake는 ML 모델에 대한 훈련 데이터의 가능한 타사 소스입니다.

  • Pinecone , Milvus 또는 ChromaDB는 벡터 임베딩을 저장할 수 있는 타사 벡터 데이터베이스입니다.

모범 사례

이 멀티클라우드 MLOps 워크플로의 구성 요소를 구현하기 전에 다음 활동을 완료합니다.

  • 기계 학습 워크플로와 이를 지원하는 데 필요한 도구를 정의하고 이해합니다. 다양한 사용 사례에는 다양한 워크플로와 구성 요소가 필요합니다. 예를 들어, 특성 재사용 및 개인화 사용 사례의 짧은 지연 시간 추론에는 특성 저장소가 필요할 수 있지만 다른 사용 사례에서는 필요하지 않을 수 있습니다. 아키텍처를 성공적으로 사용자 지정하려면 데이터 과학 팀의 대상 워크플로, 사용 사례 요구 사항 및 선호하는 협업 방법을 이해해야 합니다.

  • 아키텍처의 각 구성 요소에 대한 명확한 책임 분리를 생성합니다. Azure Data Lake Storage, Snowflake 및 Amazon S3에 데이터 스토리지를 분산하면 복잡성과 비용이 증가할 수 있습니다. 가능하면 일관된 스토리지 메커니즘을 선택합니다. 마찬가지로 Azure와 AWS DevOps 서비스의 조합 또는 Azure와 AWS ML 서비스의 조합을 사용하지 마세요.

  • MLOps 워크플로 테스트를 수행할 end-to-end 하나 이상의 기존 모델 및 데이터 세트를 선택합니다. 테스트 아티팩트는 플랫폼이 프로덕션에 진입할 때 데이터 과학 팀이 개발하는 실제 사용 사례를 반영해야 합니다.

에픽

작업설명필요한 기술

데이터 소스를 식별합니다.

현재 및 향후 사용 사례, 사용 가능한 데이터 소스 및 데이터 유형(예: 기밀 데이터)을 기반으로 MLOps 플랫폼과 통합해야 하는 데이터 소스를 문서화합니다. 데이터는 Amazon S3, Azure Data Lake Storage, Snowflake 또는 기타 소스에 저장할 수 있습니다. 생성형 AI 워크로드의 경우 생성된 응답을 기반으로 하는 지식 기반이 데이터에 포함될 수도 있습니다. 이 데이터는 벡터 데이터베이스에 벡터 임베딩으로 저장됩니다. 이러한 소스를 플랫폼과 통합하고 올바른 리소스에 대한 액세스를 보호하기 위한 계획을 생성합니다.

데이터 엔지니어, 데이터 과학자, 클라우드 아키텍트

적용 가능한 서비스를 선택합니다.

데이터 과학 팀의 원하는 워크플로, 해당 데이터 소스 및 기존 클라우드 아키텍처를 기반으로 서비스를 추가하거나 제거하여 아키텍처를 사용자 지정합니다. 예를 들어 데이터 엔지니어와 데이터 과학자는 , SageMaker AWS Glue또는 Amazon 에서 데이터 사전 처리 및 기능 엔지니어링을 수행할 수 있습니다EMR. 세 가지 서비스가 모두 필요할 가능성은 낮습니다.

AWS 관리자, 데이터 엔지니어, 데이터 과학자, ML 엔지니어

보안 요구 사항을 분석합니다.

보안 요구 사항을 수집하고 문서화합니다. 여기에는 다음을 결정하는 것이 포함됩니다.

  • 특정 데이터 소스에 액세스할 수 있는 팀 또는 엔지니어

  • 사전 훈련된 파운데이션 모델에 액세스할 수 있는 팀 또는 엔지니어

  • 팀이 다른 팀의 코드 및 모델에 액세스할 수 있는지 여부

  • 비개발 계정에 대해 팀원이 보유해야 하는 권한(있는 경우)

  • 클라우드 간 데이터 전송을 위해 구현해야 하는 보안 조치

생성형 AI 워크로드 보안에 대한 자세한 내용은 생성형 AI 보안: 생성형 AI 보안 스코핑 매트릭스 소개(AWS 블로그 게시물)를 참조하세요.

AWS 관리자, 클라우드 아키텍트
작업설명필요한 기술

를 설정합니다 AWS Organizations.

루트 AWS Organizations 에 를 설정합니다 AWS 계정. 이렇게 하면 다중 계정 MLOps 전략의 일부로 생성한 후속 계정을 관리하는 데 도움이 됩니다. 자세한 내용은 AWS Organizations 설명서를 참조하십시오.

AWS 관리자
작업설명필요한 기술

AWS 개발 계정을 생성합니다.

데이터 엔지니어와 데이터 과학자가 ML 모델을 실험하고 생성할 수 AWS 계정 있는 권한을 가진 를 생성합니다. 지침은 AWS Organizations 설명서의 조직에서 멤버 계정 생성을 참조하세요.

AWS 관리자

모델 빌드 리포지토리를 생성합니다.

실험 단계가 완료된 후 데이터 과학자가 모델 빌드 및 배포 코드를 푸시할 수 있는 Git 리포지토리를 Azure에서 생성합니다. 지침은 Azure DevOps 설명서의 Git 리포지토리 설정을 참조하세요.

DevOps 엔지니어, ML 엔지니어

모델 배포 리포지토리를 생성합니다.

표준 배포 코드 및 템플릿을 저장하는 Git 리포지토리를 Azure에 생성합니다. 여기에는 설계 단계에서 식별된 대로 조직에서 사용하는 모든 배포 옵션에 대한 코드가 포함되어야 합니다. 예를 들어 실시간 엔드포인트, 비동기 엔드포인트, 서버리스 추론 또는 배치 변환을 포함해야 합니다. 지침은 Azure DevOps 설명서의 Git 리포지토리 설정을 참조하세요.

DevOps 엔지니어, ML 엔지니어

Amazon ECR리포지토리를 생성합니다.

승인된 ML 환경을 Docker 이미지로 저장하는 Amazon ECR리포지토리를 설정합니다. 데이터 사이언티스트와 ML 엔지니어가 새 환경을 정의할 수 있도록 허용합니다. 지침은 Amazon ECR 설명서의 프라이빗 리포지토리 생성을 참조하세요.

ML 엔지니어

SageMaker Studio를 설정합니다.

이전에 정의한 보안 요구 사항, 선호하는 데이터 과학 도구(예: MLflow) 및 선호하는 통합 개발 환경()에 따라 개발 계정에 SageMaker Studio를 설정합니다IDE. 수명 주기 구성을 사용하여 주요 기능의 설치를 자동화하고 데이터 과학자를 위한 균일한 개발 환경을 생성합니다. 자세한 내용은 SageMaker 설명서의 Amazon SageMaker StudioMLflow 추적 서버를 참조하세요.

데이터 과학자, ML 엔지니어, 프롬프트 엔지니어
작업설명필요한 기술

자동화 계정을 생성합니다.

자동화된 파이프라인 및 작업이 실행되는 AWS 계정 를 생성합니다. 데이터 사이언스 팀에게 이 계정에 대한 읽기 액세스 권한을 부여할 수 있습니다. 지침은 AWS Organizations 설명서의 조직에서 멤버 계정 생성을 참조하세요.

AWS 관리자

모델 레지스트리를 설정합니다.

자동화 계정에서 SageMaker 모델 레지스트리를 설정합니다. 이 레지스트리는 ML 모델의 메타데이터를 저장하고 특정 데이터 과학자 또는 팀이 모델을 승인하거나 거부하는 데 도움이 됩니다. 자세한 내용은 SageMaker 설명서의 모델 레지스트리에 모델 등록 및 배포를 참조하세요.

ML 엔지니어

모델 빌드 파이프라인을 생성합니다.

코드가 모델 빌드 리포지토리로 푸시될 때 수동 또는 자동으로 시작되는 CI/CD 파이프라인을 Azure에서 생성합니다. 파이프라인은 소스 코드를 확인하고 자동화 계정에서 SageMaker 파이프라인을 생성하거나 업데이트해야 합니다. 파이프라인은 모델 레지스트리에 새 모델을 추가해야 합니다. 파이프라인 생성에 대한 자세한 내용은 Azure Pipelines 설명서 를 참조하세요.

DevOps 엔지니어, ML 엔지니어
작업설명필요한 기술

AWS 스테이징 및 배포 계정을 생성합니다.

ML 모델의 스테이징 및 배포를 AWS 계정 위한 를 생성합니다. 이러한 계정은 프로덕션으로 이동하기 전에 스테이징에서 모델을 정확하게 테스트할 수 있도록 동일해야 합니다. 데이터 사이언스 팀에게 스테이징 계정에 대한 읽기 액세스 권한을 부여할 수 있습니다. 지침은 AWS Organizations 설명서의 조직에서 멤버 계정 생성을 참조하세요.

AWS 관리자

모델 모니터링을 위해 S3 버킷을 설정합니다.

모델 배포 파이프라인에서 생성한 배포된 모델에 대해 모델 모니터링을 활성화하려면 이 단계를 완료합니다. 입력 및 출력 데이터를 저장하기 위한 Amazon S3 버킷을 생성합니다. S3 버킷 생성에 대한 자세한 내용은 Amazon S3 설명서의 버킷 생성을 참조하세요. 자동 모델 모니터링 작업이 자동화 계정에서 실행되도록 교차 계정 권한을 설정합니다. 자세한 내용은 SageMaker 설명서의 데이터 및 모델 품질 모니터링을 참조하세요.

ML 엔지니어

모델 배포 파이프라인을 생성합니다.

모델 레지스트리에서 모델이 승인될 때 시작되는 Azure의 CI/CD 파이프라인을 생성합니다. 파이프라인은 소스 코드와 모델 아티팩트를 확인하고, 스테이징 및 프로덕션 계정에 모델을 배포하기 위한 인프라 템플릿을 구축하고, 스테이징 계정에 모델을 배포하고, 자동 테스트를 실행하고, 수동 승인을 기다리고, 승인된 모델을 프로덕션 계정에 배포해야 합니다. 파이프라인 생성에 대한 자세한 내용은 Azure Pipelines 설명서 섹션을 참조하세요.

DevOps 엔지니어, ML 엔지니어
작업설명필요한 기술

빌드 AWS CDK 또는 CloudFormation 템플릿.

자동으로 배포해야 하는 모든 환경에 대해 AWS Cloud Development Kit (AWS CDK) 또는 AWS CloudFormation 템플릿을 정의합니다. 여기에는 개발 환경, 자동화 환경, 스테이징 및 배포 환경이 포함될 수 있습니다. 자세한 내용은 AWS CDKCloudFormation 설명서를 참조하세요.

AWS DevOps

인프라 파이프라인을 생성합니다.

인프라 배포를 위해 Azure에서 CI/CD 파이프라인을 생성합니다. 관리자는 이 파이프라인을 시작하여 ML 팀에 필요한 환경을 새로 생성하고 AWS 계정 설정할 수 있습니다.

DevOps 엔지니어

문제 해결

문제Solution

모니터링 및 드리프트 탐지 부족 - 부적절한 모니터링을 통해 모델 성능 문제 또는 데이터 드리프트를 감지하지 못할 수 있습니다.

Amazon CloudWatch, SageMaker Model Monitor 및 SageMaker Clarify와 같은 도구를 사용하여 모니터링 프레임워크를 강화합니다. 식별된 문제에 대한 즉각적인 조치를 위한 알림을 구성합니다.

CI 파이프라인 트리거 오류 - 잘못된 구성으로 인해 코드 병합 시 Azure의 CI 파이프라인이 트리거되지 않을 DevOps 수 있습니다.

Azure DevOps 프로젝트 설정을 확인하여 웹후크가 올바르게 설정되고 올바른 SageMaker 엔드포인트를 가리키는지 확인합니다.

거버넌스 - 중앙 자동화 계정 은 ML 플랫폼에서 모범 사례를 적용하지 않아 워크플로가 일관되지 않을 수 있습니다.

Automation 계정 설정을 감사하여 모든 ML 환경 및 모델이 사전 정의된 모범 사례 및 정책을 준수하는지 확인합니다.

모델 레지스트리 승인 지연 - 사람들이 모델을 검토하는 데 시간이 걸리거나 기술적인 문제로 인해 모델을 확인하고 승인하는 데 지연이 발생할 때 발생합니다.

승인 대기 중인 모델을 이해관계자에게 알리고 검토 프로세스를 간소화하는 알림 시스템을 구현합니다.

모델 배포 이벤트 실패 - 모델 배포 파이프라인을 시작하도록 배포된 이벤트가 실패하여 배포가 지연될 수 있습니다.

Amazon이 Azure DevOps 파이프라인을 성공적으로 호출할 수 있는 올바른 권한과 이벤트 패턴을 EventBridge 가지고 있는지 확인합니다.

프로덕션 배포 병목 현상 - 수동 승인 프로세스로 병목 현상이 발생하여 모델의 프로덕션 배포가 지연될 수 있습니다.

모델 배포 파이프라인 내에서 승인 워크플로를 최적화하여 시기 적절한 검토와 명확한 커뮤니케이션 채널을 촉진합니다.

관련 리소스

AWS 설명서

기타 AWS 리소스

Azure 설명서