Explicabilidade do modelo - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Explicabilidade do modelo

O Amazon SageMaker Clarify fornece ferramentas para ajudar a explicar como os modelos de aprendizado de máquina (ML) fazem previsões. Essas ferramentas podem ajudar modeladores e desenvolvedores de ML e outras partes interessadas internas a entender as características do modelo como um todo antes da implantação e a depurar as previsões fornecidas pelo modelo após a implantação.

A transparência sobre como os modelos de ML chegam às suas previsões também é fundamental para consumidores e reguladores. Eles precisam confiar nas previsões do modelo se quiserem aceitar as decisões baseadas nelas. SageMaker O Clarify usa uma abordagem de atribuição de recursos independente do modelo. Você pode usar isso para entender por que um modelo fez uma previsão após o treinamento e para fornecer uma explicação por instância durante a inferência. A implementação inclui uma implementação escalável e eficiente do SHAP. Isso se baseia no conceito de um valor de Shapley, do campo da teoria dos jogos cooperativos, que atribui a cada recurso um valor de importância para uma previsão específica.

O Clarify produz gráficos de dependência parcial (PDPs) que mostram o efeito marginal que as características têm no resultado previsto de um modelo de machine learning. A dependência parcial ajuda a explicar a resposta do alvo, dado um conjunto de recursos de entrada. Ele também suporta a explicabilidade da visão computacional (CV) e do processamento de linguagem natural (PNL) usando o mesmo algoritmo de valores de Shapley (SHAP) usado para explicações de dados tabulares.

Qual é a função de uma explicação no contexto do machine learning? Uma explicação pode ser considerada a resposta a uma pergunta por que, que ajuda os humanos a entender a causa de uma previsão. No contexto de um modelo de ML, talvez você esteja interessado em responder perguntas como:

  • Por que o modelo previu um resultado negativo, como a rejeição de um empréstimo para um determinado candidato?

  • Como o modelo faz previsões?

  • Por que o modelo fez uma previsão incorreta?

  • Quais características têm a maior influência no comportamento do modelo?

Você pode usar essas explicações para auditar e atender aos requisitos regulatórios, estabelecer confiança no modelo, apoiar a tomada de decisões humanas e depurar e melhorar a performance do modelo.

A necessidade de satisfazer as demandas de compreensão humana sobre a natureza e os resultados da inferência de ML é fundamental para o tipo de explicação necessária. Pesquisas de disciplinas de filosofia e ciências cognitivas mostraram que as pessoas se preocupam especialmente com explicações contrastivas ou explicações do tipo por que um evento X aconteceu em vez de algum outro evento Y que não ocorreu. Aqui, X pode ser um evento inesperado ou surpreendente que aconteceu e Y corresponde a uma expectativa baseado no seu modelo mental existente, conhecido como linha de base. Observe que, para o mesmo evento X, pessoas diferentes podem buscar explicações diferentes, dependendo de seu ponto de vista ou modelo mental Y. No contexto da inteligência artificial explicável, você pode pensar em X como o exemplo que está sendo explicado e em Y como uma linha de base que normalmente é escolhida para representar um exemplo não informativo ou médio no conjunto de dados. Às vezes, por exemplo, no caso da modelagem de imagens em ML, a linha de base pode estar implícita, enquanto uma imagem cujos pixels são todos da mesma cor pode servir como linha de base.

Cadernos de exemplo

O Amazon SageMaker Clarify fornece o seguinte exemplo de caderno para explicabilidade do modelo:

Este notebook foi verificado para ser executado somente no Amazon SageMaker Studio. Se você precisar de instruções sobre como abrir um notebook no Amazon SageMaker Studio, consulteCrie ou abra um notebook Amazon SageMaker Studio Classic. Caso seja solicitado que você escolha um kernel, escolha Python 3 (Data Science).