Apéndice C. Otras consideraciones y métodos notables - AWS Guía prescriptiva

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Apéndice C. Otras consideraciones y métodos notables

Esta guía aborda las maneras más prácticas y eficaces de determinar medidas fiables de incertidumbre. También aborda algunas de las principales patologías, como la degeneración fuera de distribución y el exceso de confianza determinista. Otras técnicas recientes incluyen la cuantificación determinista de la incertidumbre (DUQ) (van Amersfoort et al., 2020) y la normalización por lotes en tiempo de predicción (Nado et al., 2020).

La DUQ es un nuevo tipo de clasificador de aprendizaje profundo que no emplea la función softmax tradicional. Por el contrario, la DUQ proporciona una incertidumbre fiable para datos fuera de distribución. La DUQ generan un vector, f(x), que se transforma mediante una matriz de ponderación específica de la clase, Wc, para mapear un vector de características. La distancia entre este vector de características y los centroides aprendidos (un centroide para cada clase) representa las correspondientes incertidumbres. La distancia al centroide más cercano se considera incertidumbre predictiva. Al regularizar la suavidad del modelo, los vectores de características pueden mapear datos alejados de los centroides en busca de datos fuera de distribución. El novedoso método de regularización ajusta la suavidad para que los cambios en la salida coincidan con los cambios en la entrada, pero sin cambiar tanto que se comprometa la generalización. La DUQ es una nueva y prometedora forma de modelar la incertidumbre, y ofrece una alternativa a los conjuntos profundos para analizar la incertidumbre fiable en entornos fuera de distribución. Para más información, consulte las publicaciones en la sección de Referencias.

Otro método que merece la pena destacar es la normalización por lotes en tiempo de predicción, usada para garantizar la solidez fuera de distribución (Nado et al., 2020). Esta técnica, que solo requiere unas pocas líneas de código para su implementación, pretende mejorar la fiabilidad de la incertidumbre con datos fuera de distribución de forma complementaria a los conjuntos profundos. Una advertencia interesante de este método es que la calidad de la incertidumbre degenera en los entornos de entrenamiento previo, lo que plantea interrogantes para el trabajo futuro.