Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Incertitude épistémique
L'incertitude épistémique fait référence à l'incertitude du modèle (l'épistémologie est l'étude des connaissances) et est souvent due à un manque de données de formation. Parmi les exemples d'incertitude épistémique, citons les groupes minoritaires sous-représentés dans un ensemble de données de reconnaissance faciale ou la présence de mots rares dans un contexte de modélisation linguistique.
L'incertitude épistémique est déterminée par la définition de la variance :

où
.
L'incertitude épistémique
d'un modèle entraîné diminuera à mesure que la taille des données d'entraînement augmente.
peut également être affectée par la pertinence de l'architecture du modèle. En tant que telle, la mesure de l'incertitude épistémique est d'une grande valeur pour l'ingénieur en apprentissage automatique. Cela est dû au fait que de grandes mesures de l'incertitude épistémique peuvent suggérer que des inférences sont faites à partir de données avec lesquelles le modèle a moins d'expérience. Par conséquent, cette incertitude épistémique peut correspondre à des prédictions erronées ou à des données aberrantes.