Explicabilité du modèle - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Explicabilité du modèle

Amazon SageMaker Clarify fournit des outils permettant d'expliquer comment les modèles d'apprentissage automatique (ML) permettent d'établir des prédictions. Ces outils peuvent aider les modélisateurs et développeurs ML, ainsi que d'autres parties prenantes internes, à comprendre globalement les caractéristiques du modèle avant le déploiement et à déboguer les prédictions fournies par un modèle après son déploiement.

La transparence quant à la façon dont les modèles de ML formulent leurs prédictions est également essentielle pour les consommateurs et les régulateurs. Ils doivent se fier aux prédictions du modèle s'ils veulent accepter les décisions qui en découlent. SageMaker Clarify utilise une approche d'attribution de fonctionnalités indépendante du modèle. Vous pouvez l'utiliser pour comprendre pourquoi un modèle a formulé une prédiction après l'entraînement, et pour fournir une explication par instance pendant l'inférence. L'approche comprend une mise en œuvre évolutive et efficace de SHAP. Elle se base sur le concept d'une valeur de Shapley, issue du domaine de la théorie des jeux coopératifs, qui affecte à chaque fonction une valeur d'importance pour une prédiction particulière.

Clarify produit des graphiques de dépendance partielle (PDP) qui montrent l'effet marginal des fonctions sur le résultat prédit d'un modèle de machine learning. La dépendance partielle permet d'expliquer la réponse cible en fonction d'un ensemble de fonctions d'entrée. Elle prend également en charge l'explicabilité de la reconnaissance d'image (CV) et du traitement du langage naturel (NLP) à l'aide du même algorithme Shapley Values (SHAP) que celui utilisé pour les explications de données tabulaires.

Quelle est la fonction d'une explication dans le contexte du machine learning ? Une explication peut être considérée comme la réponse à une question Pourquoi ?, qui aide les humains à comprendre la cause d'une prédiction. Dans le contexte d'un modèle ML, vous pouvez vouloir répondre à des questions telles que :

  • Pourquoi le modèle a-t-il prédit un résultat négatif, comme un refus de prêt pour un demandeur donné ?

  • Comment le modèle fait-il des prédictions ?

  • Pourquoi le modèle a-t-il fait une prédiction incorrecte ?

  • Quelles fonctions influent le plus sur le comportement du modèle ?

Vous pouvez utiliser des explications pour l'audit et le respect des exigences réglementaires, renforcer la confiance dans le modèle et prendre en charge la prise de décisions humaines, ainsi que pour le débogage et l'amélioration des performances du modèle.

Le genre d'explication requis repose sur la nécessité de satisfaire les exigences de compréhension humaine de la nature et des résultats de l'inférence ML. Les recherches menées en philosophie et en sciences cognitives montrent que les gens recherchent des explications contrastives, ou des explications sur la raison pour laquelle un événement X s'est produit au lieu d'un autre événement Y qui ne s'est pas produit. Ici, X peut être un événement inattendu ou surprenant qui s'est produit et Y une attente basée sur leur modèle mental existant appelé base de référence. Vous noterez que, pour le même événement X, plusieurs personnes peuvent rechercher des explications différentes selon leur point de vue ou leur modèle mental Y. Dans le contexte de l'IA explicable, vous pouvez considérer X comme l'exemple expliqué et Y comme une base de référence choisie généralement pour représenter un exemple non informatif ou moyen dans le jeu de données. Parfois, par exemple dans le cas de la modélisation ML d'images, la référence peut être implicite : une image dont les pixels sont tous de la même couleur peut servir de référence.

Exemples de blocs-notes

Amazon SageMaker Clarify fournit l'exemple de bloc-notes suivant pour expliquer le modèle :

Il a été vérifié que ce bloc-notes fonctionne uniquement dans Amazon SageMaker Studio. Si vous avez besoin d'instructions pour ouvrir un bloc-notes dans Amazon SageMaker Studio, consultezCréation ou ouverture d'un bloc-notes Amazon SageMaker Studio Classic. Si vous êtes invité à choisir un noyau, choisissez Python 3 (Science des données).