Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Preguntas frecuentes
Existen muchos métodos para determinar la importancia de las características que no se analizan aquí. ¿Por qué no se mencionan?
Esta guía se centra en lo que creemos que son los métodos más efectivos y directos para la interpretabilidad de los modelos. Otros métodos tienen ventajas en cuanto a velocidad y facilidad de cálculo, y pueden ser adecuados según el modelo. La orientación de este artículo es prescriptiva, no proscriptiva.
¿Cuáles son los puntos débiles de los métodos recomendados?
SHAP exige atribuciones derivadas de una media ponderada de todas las combinaciones de características. Las atribuciones obtenidas de esta manera pueden ser engañosas a la hora de estimar la importancia de una característica cuando existen fuertes interacciones entre las características. Los métodos que se basan en gradientes integrados pueden resultar difíciles de interpretar debido a la gran cantidad de dimensiones que están presentes en las grandes redes neuronales. Los modelos pueden utilizar las características de formas inesperadas para alcanzar un cierto nivel de rendimiento, y estas pueden variar según el modelo; la importancia de las características siempre depende del modelo.