Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Apéndice C. Otras consideraciones y métodos notables
Esta guía aborda las formas más prácticas y efectivas de determinar medidas fiables de incertidumbre. También aborda algunas de las principales patologías, como la degeneración fuera de distribución y el exceso de confianza determinista. Otras técnicas recientes incluyen la cuantificación de la incertidumbre determinista (DUQ) (van Amersfoort et al. 2020) y normalización de lotes en tiempo de predicción (Nado et al. 2020).
Los DUQ son un nuevo tipo de clasificador de deep learning que no utiliza la función softmax tradicional. En cambio, los DUQs proporcionan incertidumbre fiable para los datos fuera de distribución. DuQs genera un vector, f (x), que se transforma mediante una matriz de peso específica de la clase, Wc, para mapear a un vector de entidad. La distancia entre este vector de entidad y los centroides aprendidos (un centroide para cada clase) representa las incertidumbres correspondientes. La distancia al centroide más cercano se considera la incertidumbre predictiva. Los vectores de entidad pueden mapear lejos de los centroides para datos fuera de distribución regularizando la suavidad del modelo. El novedoso método de regularización ajusta la suavidad para que los cambios de salida coincidan con los cambios en la entrada, sin cambiar tanto que compromete la generalización. Los DUQ son una nueva forma prometedora de modelar la incertidumbre y ofrecen una alternativa a los conjuntos profundos para obtener una incertidumbre fiable en entornos fuera de distribución. Para obtener información detallada, consulte las publicaciones que se describen enReferenciassección.
Otro método que vale la pena destacar es la normalización de lotes en tiempo de predicción para la solidez fuera de la distribución (Nado et al. 2020). Esta técnica requiere solo unas pocas líneas de código para implementar y afirma mejorar la confiabilidad de la incertidumbre con datos fuera de distribución de una manera complementaria a los conjuntos profundos. Una advertencia interesante para este método es que la calidad de la incertidumbre realmente degenera en los entornos previos al entrenamiento, lo que plantea interrogantes para el trabajo futuro.