Explicabilité d'Amazon SageMaker Autopilot - Amazon SageMaker

Explicabilité d'Amazon SageMaker Autopilot

Amazon SageMaker Autopilot utilise les outils fournis par Amazon SageMaker Clarify pour expliquer comment les modèles de machine learning (ML) réalisent des prédictions. Ces outils peuvent aider les modélisateurs et développeurs ML, ainsi que d'autres parties prenantes internes, à comprendre les caractéristiques du modèle dans leur ensemble avant le déploiement et les prédictions de débogage fournies par un modèle après son déploiement. La transparence quant à la façon dont les modèles ML arrivent à leurs prédictions est également essentielle pour les consommateurs et les organismes de réglementation, qui doivent faire confiance aux prédictions de modèle afin d'accepter les décisions qui en découlent. La fonctionnalité explicative d'Autopilot utilise une approche d'attribution de fonctions indépendante du modèle, qui permet de comprendre pourquoi un modèle a fait une prédiction après l'entraînement et fournir une explication par instance pendant l'inférence. L'approche comprend une mise en œuvre évolutive et efficace de SHAP, basée sur le concept d'une valeur Shapley issue du domaine de la théorie des jeux coopératifs, qui affecte à chaque fonction une valeur d'importance pour une prédiction particulière.

Vous pouvez utiliser des explications pour l'audit et le respect des exigences réglementaires, renforcer la confiance dans le modèle et appuyer la prise de décisions humaines, ainsi que pour le débogage et l'amélioration des performances du modèle.

pour de plus amples informations sur les valeurs et les lignes de base Shapley, veuillez consulter Attributions de fonctions utilisant des valeurs de Shapley et Bases de référence SHAP pour l'explicabilité.

Pour obtenir de la documentation sur Amazon SageMaker Clarify, veuillez consulter Guide de la documentation SageMaker Clarify.