Annexe C. Autres considérations et méthodes notables - AWSConseils prescriptifs

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Annexe C. Autres considérations et méthodes notables

Ce guide aborde les moyens les plus pratiques et les plus efficaces de déterminer des mesures fiables d'incertitude. Il aborde également certaines des principales pathologies telles que la dégénérescence hors distribution et l'excès de confiance déterministe. Parmi les autres techniques récentes figurent la quantification de l'incertitude déterministe (DUQ) (van Amersfoort et coll. 2020) et la normalisation des lots en temps de prévision (Nado et coll. 2020).

Les DUQ sont un nouveau type de classificateur de Deep Learning qui n'utilise pas la fonction Softmax traditionnelle. Au lieu de cela, les DUQ fournissent une incertitude fiable pour les données hors distribution. Les DUQ produisent un vecteur, f (x), qui est transformé par une matrice de poids spécifique à la classe, Wc, pour le mappage vers un vecteur d'entités. La distance entre ce vecteur d'entités et les centroïdes appris (un centroïde pour chaque classe) représente les incertitudes correspondantes. La distance jusqu'au centroïde le plus proche est considérée comme l'incertitude prédictive. Les vecteurs d'entités peuvent cartographier loin des centroïdes pour obtenir des données hors distribution en régularisant la fluidité du modèle. La nouvelle méthode de régularisation accorde la douceur de sorte que les changements de sortie coïncident avec les changements d'entrée, sans que cela compromette la généralisation. Les DUQ constituent une nouvelle façon prometteuse de modéliser l'incertitude et offrent une alternative aux ensembles profonds pour une incertitude fiable dans des environnements hors distribution. Pour plus de détails, consultez les publications dansRéférencesSection.

Une autre méthode à noter est la normalisation des lots en temps de prévision pour assurer la robustesse hors distribution (Nado et coll. 2020). Cette technique ne nécessite que quelques lignes de code à implémenter et prétend améliorer la fiabilité de l'incertitude avec des données hors distribution d'une manière complémentaire aux ensembles profonds. Une mise en garde intéressante à cette méthode est que la qualité de l'incertitude dégénère réellement pour les environnements de pré-entraînement, ce qui soulève des questions pour les travaux futurs.