Explicabilité d'Amazon SageMaker Autopilot - Amazon SageMaker

Explicabilité d'Amazon SageMaker Autopilot

Amazon SageMaker Autopilot utilise les outils fournis par Amazon SageMaker Clarify pour expliquer comment les modèles de machine learning (ML) réalisent des prédictions. Ces outils peuvent aider les modélisateurs et développeurs ML, ainsi que d'autres parties prenantes internes à comprendre les caractéristiques du modèle avant le déploiement. Vous pouvez également utiliser des outils pour déboguer les prédictions fournies par un modèle après son déploiement. La transparence sur la manière dont les modèles ML parviennent à leurs prédictions est également essentielle pour les consommateurs et les régulateurs, qui doivent avoir confiance dans les prédictions des modèles pour pouvoir accepter les décisions qui en découlent. La fonctionnalité explicative d'Autopilot utilise une approche d'attribution de fonctions indépendante du modèle. Vous pouvez l'utiliser pour comprendre pourquoi un modèle a formulé une prédiction après l'entraînement, et l'utiliser pour fournir une explication par instance pendant l'inférence. L'approche comprend une mise en œuvre évolutive et efficace de SHAP. Elle se base sur le concept d'une valeur de Shapley, issue du domaine de la théorie des jeux coopératifs, qui affecte à chaque fonction une valeur d'importance pour une prédiction particulière.

Vous pouvez utiliser des explications pour l'audit et le respect des exigences réglementaires, renforcer la confiance dans le modèle, prendre en charge la prise de décisions humaines et déboguer et améliorer les performances du modèle.

pour de plus amples informations sur les valeurs et les lignes de base Shapley, veuillez consulter Attributions de fonctions utilisant des valeurs de Shapley et Bases de référence SHAP pour l'explicabilité.

Pour obtenir de la documentation sur Amazon SageMaker Clarify, veuillez consulter Guide de la documentation SageMaker Clarify.