認識論的不確実性 - AWS 規範ガイダンス

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

認識論的不確実性

認識論的不確実性とは、モデルの不確実性 (認識論は知識の研究) を指し、多くの場合、トレーニングデータの不足が原因です。認識論的不確実性の例としては、顔認識データセットに少数派集団が過小評価されていることや、言語モデリングの文脈でまれな言葉が存在することが挙げられます。

認識論的不確実性は、分散の定義によって明らかになります。

ここで、 とします。

トレーニングされたモデルの認識的不確実性 は、トレーニングデータのサイズが大きくなるにつれて減少します。モデルアーキテクチャの適合性によって も影響を受ける可能性があります。そのため、認識論的不確実性を測定することは、機械学習エンジニアにとって大きな価値があります。これは、認識論的不確実性を大きく測定すると、モデルがあまり経験のないデータに対して推論が行われていることが示唆される可能性があるためです。したがって、この認識論的不確実性は、誤った予測や外れ値データに対応している可能性があります。