Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Explicabilidad del modelo
Amazon SageMaker Clarify proporciona herramientas que ayudan a explicar cómo los modelos de aprendizaje automático (ML) hacen predicciones. Estas herramientas pueden ayudar a los modeladores y desarrolladores de ML y a otras partes interesadas internas a comprender las características del modelo en su conjunto antes de la implementación y a depurar las predicciones proporcionadas por el modelo una vez implementado.
-
Para obtener explicaciones de sus conjuntos de datos y modelos, consulteImparcialidad, explicabilidad del modelo y detección de sesgos con Clarify SageMaker .
-
Para obtener explicaciones en tiempo real desde un SageMaker punto final, consulteExplicabilidad en línea con Clarify SageMaker .
La transparencia sobre la forma en que los modelos de ML llegan a sus predicciones también es fundamental para los consumidores y los reguladores. Deben confiar en las predicciones del modelo si van a aceptar las decisiones basadas en ellas. SageMaker Clarify utiliza un enfoque de atribución de características independiente del modelo. Sirve para entender por qué un modelo realizó una predicción después del entrenamiento y para proporcionar una explicación por instancia durante la inferencia. La implementación incluye una implementación escalable y eficiente de. SHAP
Clarify produce gráficos de dependencia parcial (PDPs) que muestran el efecto marginal que tienen las características en el resultado previsto de un modelo de aprendizaje automático. La dependencia parcial ayuda a explicar la respuesta objetivo dado un conjunto de características de entrada. También admite la explicabilidad tanto de la visión artificial (CV) como del procesamiento del lenguaje natural (NLP) mediante el mismo algoritmo de valores de Shapley (SHAP) que se utiliza para las explicaciones de datos tabulares.
¿Cuál es la función de una explicación en el contexto de machine learning? Se puede pensar que una explicación es la respuesta a una pregunta de por qué que ayuda a los humanos a entender la causa de una predicción. En el contexto de un modelo de ML, es posible que le interese responder a preguntas como:
-
¿Por qué predijo el modelo un resultado negativo, como el rechazo de un préstamo para un solicitante determinado?
-
¿Cómo hace predicciones el modelo?
-
¿Por qué el modelo hizo una predicción incorrecta?
-
¿Qué características tienen la mayor influencia en el comportamiento del modelo?
Puede utilizar estas explicaciones para auditar y cumplir los requisitos reglamentarios, generar confianza en el modelo, respaldar la toma de decisiones humana y depurar y mejorar el rendimiento del modelo.
La necesidad de satisfacer las exigencias de la comprensión humana sobre la naturaleza y los resultados de la inferencia de ML es clave para el tipo de explicación necesaria. Las investigaciones de las disciplinas de la filosofía y las ciencias cognitivas han demostrado que las personas se preocupan especialmente por las explicaciones contrastantes, es decir, por qué ocurrió un evento X en lugar de algún otro evento Y que no ocurrió. En este caso, X podría ser un evento inesperado o sorprendente que ocurrió e Y corresponde a una expectativa basada en su modelo mental existente, denominado referencia. Tenga en cuenta que para el mismo evento X, diferentes personas pueden buscar diferentes explicaciones según su punto de vista o modelo mental Y. En el contexto de la IA explicable, puede pensar en X como el ejemplo que se explica e Y como una referencia que normalmente se elige para representar un ejemplo poco informativo o promedio en el conjunto de datos. A veces, por ejemplo, en el caso del modelado de imágenes mediante ML, la referencia puede estar implícita, mientras que una imagen cuyos píxeles son todos del mismo color puede servir como referencia.
Cuadernos de ejemplo
Amazon SageMaker Clarify proporciona el siguiente ejemplo de bloc de notas para explicar el modelo:
-
Amazon SageMaker Clarify Processing
: utilice SageMaker Clarify para crear un trabajo de procesamiento para detectar sesgos y explicar las predicciones del modelo con atribuciones de características. Algunos ejemplos son el uso de formatos de datos CSV y JSON líneas, la creación de su propio contenedor y la ejecución de tareas de procesamiento con Spark. -
Explicación de la clasificación de SageMaker imágenes con
SageMaker Clarify: Clarify te proporciona información sobre cómo tus modelos de visión artificial clasifican las imágenes. -
Explicar los modelos de detección de objetos SageMaker con SageMaker Clarify
: Clarify le proporciona información sobre cómo sus modelos de visión artificial detectan los objetos.
Se ha verificado que este portátil solo funciona en Amazon SageMaker Studio. Si necesitas instrucciones sobre cómo abrir un bloc de notas en Amazon SageMaker Studio, consultaCrear o abrir un bloc de notas Amazon SageMaker Studio Classic. Si se le pide que elija un kernel, elija Python 3 (ciencia de datos).