Incertidumbre epistémica - AWS Guía prescriptiva

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Incertidumbre epistémica

La incertidumbre epistémica se refiere a la incertidumbre del modelo (la epistemología es el estudio del conocimiento) y, a menudo, se debe a la falta de datos de entrenamiento. Algunos ejemplos de incertidumbre epistémica son los grupos minoritarios subrepresentados en un conjunto de datos de reconocimiento facial o la presencia de palabras raras en un contexto de modelado del lenguaje.

La incertidumbre epistémica se encuentra en la definición de varianza:

donde .

La incertidumbre epistémica de un modelo entrenado disminuirá a medida que aumente el tamaño de los datos de entrenamiento. también podría verse afectada por la idoneidad de la arquitectura del modelo. Como tal, la medida de la incertidumbre epistémica es de gran valor para el ingeniero de machine learning. Esto se debe a que las grandes medidas de incertidumbre epistémica podrían sugerir que se están haciendo inferencias sobre datos con los que el modelo tiene menos experiencia. Por lo tanto, esta incertidumbre epistémica podría corresponder a predicciones erróneas o a datos atípicos.