Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Incertitude décomposante
Les réseaux neuronaux bayésiens (BNN) produisent une distribution prédictive
, qui fournit un ensemble de prévisions différentes à partir desquelles vous pouvez estimer la variance
, c'est-à-dire une incertitude prédictive totale
. L'incertitude prédictive totale peut être divisée en deux composantes de l'incertitude en utilisant la loi de la variance totale :

Valeur attendue
d'une variable cible
, données d'entrée
et de paramètres aléatoires
qui spécifient un BNN,
, est estimé par un BNN avec une seule propagation directe et est indiqué comme suit :
. La variance de la cible, compte tenu des paramètres d'entrée et aléatoires,
, est également émis par le BNN et est indiqué comme suit :
. Ainsi, l'incertitude prédictive totale est la somme de ces deux chiffres :
-
La variance concernant les moyennes prédites du BNN
— l'incertitude épistémique
-
La moyenne de la variance prédite du BNN
— l'incertitude aléatoire
La formule suivante montre comment calculer l'incertitude totale conformément à (Kendall et Gal 2017). Entrée BNN
, génère une configuration de paramètres aléatoires
, et effectuez une seule propagation directe à travers le réseau neuronal pour générer une moyenne
et variance
. Nous désignons une génération aléatoire, ou simulation, par ~. Avec fixe
, vous pouvez réitérer ce processus
plusieurs fois pour produire un ensemble :

Ceux-ci
Nombreux échantillons
fournir les statistiques nécessaires pour déterminer les incertitudes. Pour ce faire, vous pouvez estimer séparément l'incertitude épistémique et l'incertitude aléatoire, puis prendre leur somme, comme indiqué précédemment dans la première équation de cette section.