Use a explicabilidade do SageMaker Clarify com o piloto automático SageMaker - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Use a explicabilidade do SageMaker Clarify com o piloto automático SageMaker

O Autopilot usa ferramentas fornecidas pelo Amazon SageMaker Clarify para ajudar a fornecer informações sobre como os modelos de aprendizado de máquina (ML) fazem previsões. Essas ferramentas podem ajudar engenheiros de ML, gerentes de produto e outras partes interessadas internas a entender as características do modelo. Para confiar e interpretar as decisões tomadas com base nas previsões do modelo, tanto os consumidores quanto os reguladores confiam na transparência do aprendizado de máquina para garantir a ordem.

A funcionalidade explicativa do Autopilot usa uma abordagem de atributo de recursos independente do modelo. Essa abordagem determina a contribuição de recursos ou entradas individuais para a saída do modelo, fornecendo insights sobre a relevância de diferentes recursos. Você pode usar isso para entender por que um modelo fez uma previsão após o treinamento ou para fornecer uma explicação por instância durante a inferência. A implementação inclui uma implementação escalável do SHAP (Shapley Additive Explanations). Essa implementação é baseada no conceito de um valor de Shapley da teoria dos jogos cooperativos, que atribui a cada recurso um valor de importância para uma previsão específica.

Você pode usar as explicações do SHAP para o seguinte: auditar e atender aos requisitos regulatórios, criar confiança no modelo, apoiar a tomada de decisões humanas ou depurar e melhorar o desempenho do modelo.

Para obter informações adicionais sobre valores e linhas de base do Shapley, consulte Linhas de base do SHAP para explicabilidade.

Para obter um guia sobre a documentação do Amazon SageMaker Clarify, consulte Guide to the SageMaker Clarify Documentation.