翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
ベストプラクティス
このセクションでは、MLOps の AWS ベストプラクティスの概要を説明します。
アカウントの管理と分離
アカウント管理のAWS ベストプラクティスでは、ユースケースごとに 4 つのアカウントにアカウントを分割することをお勧めします。実験、開発、テスト、製品です。また、組織全体で MLOps リソースを共有するためのガバナンスアカウントと、一元的なデータアクセスを提供するためのデータレイクアカウントを用意することもベストプラクティスです。その理由は、開発、テスト、本番稼働環境を完全に分離すれば、複数のユースケースやデータサイエンスチームが同じアカウントセットを共有することで生じるサービスの制限による遅延を回避し、各ユースケースのコストの概要を完全に把握できるからです。最後に、各ユースケースには独自のアカウントセットがあるため、アカウントレベルのデータを分離するのがベストプラクティスです。
セキュリティ標準
セキュリティ要件を満たすには、公共のインターネットアクセスを無効にし、すべてのデータをカスタムキーで暗号化するのがベストプラクティスです。次に、Service Catalog を使用して、Amazon SageMaker AI Studio の安全なインスタンスを開発アカウントに数分でデプロイできます。SageMaker AI プロジェクトでデプロイされたテンプレートを通じて SageMaker AI を使用することで、各ユースケースの監査機能とモデルモニタリング機能を取得することもできます。
ユースケース機能
アカウントのセットアップが完了すると、組織のデータサイエンティストは SageMaker AI Studio で SageMaker AI プロジェクトを使用して新しいユースケーステンプレートをリクエストできます。このプロセスでは、CI/CD パイプライン、ユニットテスト、モデルテスト、モデルモニタリングなどの MLOps 機能を (中央チームからの最小限のサポートで) 開発アカウントに組み込むために必要なインフラストラクチャをデプロイします。
次に、実験追跡、モデルの説明可能性、バイアス検出、データ/モデル品質モニタリングなどの SageMaker AI SageMaker AI アーキテクチャで実行する各ユースケースが開発 (または既存のアプリケーションコードベースの場合はリファクタリング) されます。SageMaker AI Pipelines のパイプラインステップを使用して、これらの機能を各ユースケースパイプラインに追加できます。
MLOps 成熟度ジャーニー
MLOps 成熟度ジャーニーでは、エンドツーエンドのモデルワークフローを確実に実施するために、全社的な設定で利用可能となる必須の MLOps 機能を定義します。成熟度ジャーニーは次の 4 つの段階で構成されます。
初期 — この段階では、実験用アカウントを作成します。また、SageMaker Studio やその他の新しい AWS サービスを試すことができる組織内の新しい AWS アカウントも保護します。
繰り返し可能 — この段階では、コードリポジトリと ML ソリューション開発を標準化します。また、マルチアカウント実装アプローチを導入し、提供タイプをスケールアウトする際にモデルガバナンスとモデル監査をサポートするよう、コードリポジトリを標準化します。ガバナンスアカウントが提供する標準ソリューションを使用して、本番稼働環境に対応したモデル開発アプローチを導入するのがベストプラクティスです。データはデータレイクアカウントに保存され、ユースケースは 2 つのアカウントで開発されます。1 つ目のアカウントは、データサイエンス探索期間中の実験用です。このアカウントで、データサイエンティストはビジネス上の問題を解決するためのモデルを発見し、複数の可能性を試します。もう 1 つのアカウントは開発用で、最適なモデルが特定され、データサイエンスチームが推論パイプラインで作業する準備が整った後に開発が行われます。
信頼できる — この段階では、テスト、デプロイ、マルチアカウントデプロイを導入します。MLOps の要件を理解し、自動テストを導入する必要があります。MLOps のベストプラクティスを実装して、モデルが堅牢かつ安全であることを確認しましょう。このフェーズでは、2 つの新しいユースケースアカウントを導入します。1 つは本番稼働環境をエミュレートする環境で開発されたモデルをテストするためのテストアカウント、もう 1 つは事業活動中にモデル推論を実行するための本番稼働アカウントです。最後に、マルチアカウント設定でモデルのテスト、デプロイ、モニタリングを自動化して、設定した高い品質とパフォーマンスの基準をモデルが満たしていることを確認します。
スケーラブル — この段階では、複数の ML ソリューションをテンプレート化して製品化します。エンドツーエンドのモデル構築プロセス中に、複数のチームや ML ユースケースが MLOps を導入し始めます。この段階でスケーラビリティを実現するには、より幅広いデータサイエンティストからの支援を通じてテンプレートライブラリのテンプレート数を増やし、組織全体のより多くのチームがアイデアから製品モデルまでの価値を実現するのにかかる時間を短縮して、スケールしながら反復処理を行います。
MLOps 成熟度モデルの詳細については、 AWS Machine Learning Blog のAmazon SageMaker AI を使用する企業の MLOps 基盤ロードマップ