Interpretabilità del modello di apprendimento automatico conAWS - AWS Guida prescrittiva

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Interpretabilità del modello di apprendimento automatico conAWS

Adewale Akinfaderin, Matthew Chasse, Michele Donini e Benjamin Fenker, Amazon Web Services (AWS)

Febbraio 2022 (cronologia dei documenti)

È più facile per gli utenti finali utilizzare algoritmi di apprendimento automatico in modo responsabile quando sono in grado di capire perché un modello effettua una previsione specifica. Per gli sviluppatori di modelli, una maggiore comprensione del modo in cui un modello effettua previsioni può aiutare nell'ingegneria e nella selezione delle funzionalità. Non esiste una definizione standard di cosa significhi spiegare un modello, tranne per il fatto che una spiegazione dovrebbe essere un prerequisito per standard come fiducia, robustezza, causalità, informatività, trasferibilità del modello e processo decisionale equo ed etico. Esistono alcuni metodi comuni per generare interpretazioni, ma presentano punti deboli e punti di forza diversi. Ciò non è inaspettato: in genere, l'euristica o l'insieme di ipotesi semplificative utilizzate per interpretare un modello complesso può essere contemporaneamente fonte di imprecisione per l'interpretazione.

Questa guida fornisce una guida generale sui metodi di interpretabilità dei modelli per i professionisti dell'apprendimento automatico. Per brevità, la guida omette molti dettagli e specifiche di implementazione e fornisce riferimenti per aiutarti a studiare casi d'uso specifici in modo più approfondito.

Risultati di business mirati

In alcuni casi, normative come quelle dei settori sanitario e finanziario richiedono l'interpretabilità dei modelli come risultato aziendale desiderato. Le interpretazioni dei modelli forniscono inoltre informazioni aggiuntive che possono essere utilizzate sia dagli sviluppatori dei modelli che dagli utenti. Ulteriori risultati aziendali mirati per l'utilizzo dell'interpretabilità dei modelli includono quanto segue:

  • Giustifica decisioni importanti (ad esempio, nel settore sanitario e finanziario) che influiscono sul benessere dei clienti quando l'equità è fondamentale.

  • Controlla le imprecisioni e le distorsioni del modello quando prendi decisioni aziendali.

  • Migliora e accelera lo sviluppo dei modelli e l'ingegneria delle funzionalità quando le interpretazioni dei modelli vengono utilizzate dai data scientist.

  • Scopri i motivi dei comportamenti generali del modello e fornisci nuove informazioni sia sui dati che sul modello.

Questi risultati aziendali si ricollegano direttamente ai quattro motivi di spiegabilità identificati in [1].