新製品需要予測に推奨される AWS アーキテクチャ - AWS 規範ガイダンス

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

新製品需要予測に推奨される AWS アーキテクチャ

AI/ML パイプラインを複数の製品やリージョンにスケールする場合は、再現性、信頼性、スケーラビリティに関する機械学習オペレーション (MLOps) のベストプラクティスに従うことをお勧めします。詳細については、Amazon SageMaker AI ドキュメントの「実装MLOps」を参照してください。次の図は、新製品導入の需要を予測する ML モデルを実装するための AWS アーキテクチャの例を示しています。

データエンジニアリング、 DevOpsおよびデータサイエンスレイヤーで構成される AWS アーキテクチャ。

サンプル AWS アーキテクチャは、データエンジニアリング DevOpsとデータサイエンスの 3 つのレイヤーで構成されています。

データエンジニアリングレイヤーは、 を使用して企業のデータソースからデータを取り込んでAWS Glue、コスト効果の高い方法で Amazon Simple Storage Service (Amazon S3) にデータを保存することに重点を置いています。 AWS Glueは、さまざまなデータストア間でデータを分類、クリーニング、変換、および確実に転送するのに役立つフルマネージドサーバーレスETLサービスです。Amazon S3 は、スケーラビリティ、データ可用性、セキュリティ、パフォーマンスを提供するオブジェクトストレージサービスです。データエンジニアリングレイヤーには、Amazon SageMaker AI でバッチ変換を使用してオフラインのバッチ推論デプロイも表示されます。バッチ変換は Amazon S3 から入力データを取得し、Amazon API Gateway を介して 1 つ以上のHTTPリクエストで推論パイプラインモデルに送信します。Amazon API Gateway は、あらゆる規模APIsで作成、公開、保守、モニタリング、保護を支援するフルマネージドサービスです。最後に、データエンジニアリングレイヤーは、システム全体のパフォーマンスを可視化し、アラームの設定、変更への自動対応、運用状態の統合ビューの取得に役立つサービスである Amazon CloudWatch の使用を示します。 は、ログファイルを指定した Amazon S3 バケットに CloudWatch 保存します。

この DevOps レイヤーは、APIGateway CloudWatch、および Amazon SageMaker AI Model Monitor を使用して、リアルタイムの推論デプロイを行います。Model Monitor は、データドリフトや異常などのモデル品質の偏差に対して自動アラートトリガーシステムを設定するのに役立ちます。Amazon CloudWatch Logs は Model Monitor からログファイルを収集し、モデルの品質がプリセットした特定のしきい値に達したときに通知します。 DevOps レイヤーは、コード配信パイプラインを自動化AWS CodePipelineするための の使用も示します。

データサイエンスレイヤーは、Amazon SageMaker AI PipelinesAmazon SageMaker AI Feature Store を使用して機械学習のライフサイクルを管理する方法を示しています。 SageMaker AI Pipelines は、データの前処理からモデルのモニタリングまで、すべての ML フェーズを自動化するのに役立つ専用のワークフローオーケストレーションサービスです。直感的な UI と Python を使用するとSDK、反復可能な end-to-end ML パイプラインを大規模に管理できます。複数の とのネイティブ統合 AWS のサービス は、MLOps要件に基づいて ML ライフサイクルをカスタマイズするのに役立ちます。Feature Store は、ML モデルの機能を保存、共有、管理するためのフルマネージドの専用リポジトリです。機能は ML モデルへの入力であり、トレーニングや推論に使用されます。