Incertitude épistémique - AWS Directives prescriptives

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Incertitude épistémique

L'incertitude épistémique fait référence à l'incertitude du modèle (épistémologieest l'étude des connaissances) et est souvent due à un manque de données de formation. Parmi les exemples d'incertitude épistémique figurent les groupes minoritaires sous-représentés dans un jeu de données de reconnaissance faciale ou la présence de mots rares dans un contexte de modélisation linguistique.

L'incertitude épistémique se trouve par la définition de la variance :

.

Incertitude épistémique d'un modèle formé diminuera à mesure que la taille des données de formation augmente. pourrait également être affectée par l'adéquation de l'architecture du modèle. À ce titre, la mesure de l'incertitude épistémique est d'une grande valeur pour l'ingénieur d'apprentissage automatique. Cela s'explique par le fait que de grandes mesures de l'incertitude épistémique pourraient suggérer qu'une inférence est faite sur des données avec lesquelles le modèle a moins d'expérience. Par conséquent, cette incertitude épistémique peut correspondre à des prédictions erronées ou à des données aberrantes.