AWS による機械学習モデルの解釈可能性 - AWS 規範ガイダンス

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

AWS による機械学習モデルの解釈可能性

Adewale Akinfaderin、Matthew Chasse、Michele Donini、Benjamin Fenker、Amazon Web Services (AWS)

2022 年 2 月 ( ドキュメント履歴 )

モデルが特定の予測を行う理由を理解できれば、エンドユーザーは責任を持って機械学習アルゴリズムを採用しやすくなります。モデル開発者にとっては、モデルがどのように予測を行うかをより深く理解できれば、特徴量エンジニアリングと選択に役立ちます。信頼性、堅牢性、因果性、情報性、モデル移転可能性、公正で倫理的な意思決定といった基準の前提条件であるべき説明を除いて、モデルを説明することの意味についての標準的な定義はありません。解釈を生み出すための一般的な方法はいくつかありますが、それらにはそれぞれ異なる短所と長所があります。これは予想外のことではありません。通常、複雑なモデルを解釈するために使用するヒューリスティックな仮定や一連の単純化仮定は、同時に解釈の不正確さの原因となる可能性があります。

このガイドは、機械学習の実務者向けに、モデルの解釈可能性に関する一般的なガイダンスを提供します。簡潔にするために、このガイドでは多くの詳細や実装の詳細を省略し、特定のユースケースをより深く調査するのに役立つ参考資料を提供しています。

ターゲットを絞ったビジネス成果

ヘルスケア業界や金融業界などの規制では、望ましいビジネス成果としてモデルの解釈可能性が求められる場合があります。モデル解釈は、モデル開発者とユーザーの両方が利用できる追加のインサイトも提供します。モデルの解釈可能性を採用することで目標を絞ったその他のビジネス成果には以下が含まれます。

  • 公平性が重要な場合は、顧客の幸福に影響する重要な決定 ( 医療や金融など ) を正当化します。

  • ビジネス上の意思決定を行う際には、モデルの不正確さや歪みを管理します。

  • データサイエンティストがモデル解釈を活用することで、モデル開発と特徴量エンジニアリングを改善し、迅速化できます。

  • 一般的なモデルの動作の理由を検出し、データとモデルの両方に関する新しいインサイトを提供します。

これらのビジネス成果は、[1] で特定される 4 つの説明可能性の理由と直接結びついています。