Incertitude décomposante - AWSConseils prescriptifs

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Incertitude décomposante

Les réseaux neuronaux bayésiens (BNN) produisent une distribution prédictive , qui fournit un ensemble de prévisions différentes à partir desquelles vous pouvez estimer la variance , c'est-à-dire une incertitude prédictive totale . L'incertitude prédictive totale peut être divisée en deux composantes de l'incertitude en utilisant la loi de la variance totale :


    Loi de la variance totale

Valeur attendue 
     Predictive distribution
    d'une variable cible 
     Predictive distribution
    , données d'entrée et de paramètres aléatoires qui spécifient un BNN, , est estimé par un BNN avec une seule propagation directe et est indiqué comme suit : . La variance de la cible, compte tenu des paramètres d'entrée et aléatoires, , est également émis par le BNN et est indiqué comme suit : . Ainsi, l'incertitude prédictive totale est la somme de ces deux chiffres :

  • La variance concernant les moyennes prédites du BNN — l'incertitude épistémique

  • La moyenne de la variance prédite du BNN — l'incertitude aléatoire

La formule suivante montre comment calculer l'incertitude totale conformément à (Kendall et Gal 2017). Entrée BNN , génère une configuration de paramètres aléatoires , et effectuez une seule propagation directe à travers le réseau neuronal pour générer une moyenne et variance . Nous désignons une génération aléatoire, ou simulation, par ~. Avec fixe , vous pouvez réitérer ce processus plusieurs fois pour produire un ensemble :

Ceux-ci Nombreux échantillons fournir les statistiques nécessaires pour déterminer les incertitudes. Pour ce faire, vous pouvez estimer séparément l'incertitude épistémique et l'incertitude aléatoire, puis prendre leur somme, comme indiqué précédemment dans la première équation de cette section.