Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Explicabilité du modèle
Amazon SageMaker Clarify fournit des outils permettant d'expliquer comment les modèles d'apprentissage automatique (ML) établissent des prédictions. Ces outils peuvent aider les modélisateurs et développeurs ML, ainsi que d'autres parties prenantes internes, à comprendre globalement les caractéristiques du modèle avant le déploiement et à déboguer les prédictions fournies par un modèle après son déploiement.
-
Pour obtenir des explications sur vos ensembles de données et modèles, consultezÉquité, explicabilité du modèle et détection des biais avec Clarify SageMaker .
-
Pour obtenir des explications en temps réel à partir d'un SageMaker point de terminaison, voirExplicabilité en ligne avec Clarify SageMaker .
La transparence quant à la façon dont les modèles de ML formulent leurs prédictions est également essentielle pour les consommateurs et les régulateurs. Ils doivent se fier aux prédictions du modèle s'ils veulent accepter les décisions qui en découlent. SageMaker Clarify utilise une approche d'attribution de fonctionnalités indépendante du modèle. Vous pouvez l'utiliser pour comprendre pourquoi un modèle a formulé une prédiction après l'entraînement, et pour fournir une explication par instance pendant l'inférence. La mise en œuvre inclut une mise en œuvre évolutive et efficace de SHAP
Clarify produit des diagrammes de dépendance partielle (PDPs) qui montrent l'effet marginal des caractéristiques sur le résultat prévu d'un modèle d'apprentissage automatique. La dépendance partielle permet d'expliquer la réponse cible en fonction d'un ensemble de fonctions d'entrée. Il prend également en charge l'explicabilité de la vision par ordinateur (CV) et du traitement du langage naturel (NLP) en utilisant le même algorithme de valeurs Shapley (SHAP) que celui utilisé pour les explications des données tabulaires.
Quelle est la fonction d'une explication dans le contexte du machine learning ? Une explication peut être considérée comme la réponse à une question Pourquoi ?, qui aide les humains à comprendre la cause d'une prédiction. Dans le contexte d'un modèle ML, vous pouvez vouloir répondre à des questions telles que :
-
Pourquoi le modèle a-t-il prédit un résultat négatif, comme un refus de prêt pour un demandeur donné ?
-
Comment le modèle fait-il des prédictions ?
-
Pourquoi le modèle a-t-il fait une prédiction incorrecte ?
-
Quelles fonctions influent le plus sur le comportement du modèle ?
Vous pouvez utiliser des explications pour l'audit et le respect des exigences réglementaires, renforcer la confiance dans le modèle et prendre en charge la prise de décisions humaines, ainsi que pour le débogage et l'amélioration des performances du modèle.
Le genre d'explication requis repose sur la nécessité de satisfaire les exigences de compréhension humaine de la nature et des résultats de l'inférence ML. Les recherches menées en philosophie et en sciences cognitives montrent que les gens recherchent des explications contrastives, ou des explications sur la raison pour laquelle un événement X s'est produit au lieu d'un autre événement Y qui ne s'est pas produit. Ici, X peut être un événement inattendu ou surprenant qui s'est produit et Y une attente basée sur leur modèle mental existant appelé base de référence. Vous noterez que, pour le même événement X, plusieurs personnes peuvent rechercher des explications différentes selon leur point de vue ou leur modèle mental Y. Dans le contexte de l'IA explicable, vous pouvez considérer X comme l'exemple expliqué et Y comme une base de référence choisie généralement pour représenter un exemple non informatif ou moyen dans le jeu de données. Parfois, par exemple dans le cas de la modélisation ML d'images, la référence peut être implicite : une image dont les pixels sont tous de la même couleur peut servir de référence.
Exemples de blocs-notes
Amazon SageMaker Clarify fournit l'exemple de bloc-notes suivant pour expliquer le modèle :
-
Traitement Amazon SageMaker Clarify
: utilisez SageMaker Clarify pour créer une tâche de traitement permettant de détecter les biais et d'expliquer les prédictions du modèle avec les attributions de fonctionnalités. Les exemples incluent l'utilisation des formats de données CSV and JSON Lines, l'utilisation de votre propre conteneur et l'exécution de tâches de traitement avec Spark. -
Expliquer la classification des images avec SageMaker Clarify
— SageMaker Clarify vous donne un aperçu de la façon dont vos modèles de vision par ordinateur classent les images. -
Expliquer les modèles de détection d'objets avec SageMaker Clarify
— SageMaker Clarify vous donne un aperçu de la façon dont vos modèles de vision par ordinateur détectent les objets.
Il a été vérifié que ce bloc-notes fonctionne uniquement dans Amazon SageMaker Studio. Si vous avez besoin d'instructions pour ouvrir un bloc-notes dans Amazon SageMaker Studio, consultezCréation ou ouverture d'un bloc-notes Amazon SageMaker Studio Classic. Si vous êtes invité à choisir un noyau, choisissez Python 3 (Science des données).