Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Quantificazione dell'incertezza nei sistemi di deep learning
Josiah Davis, Jason Zhu e Jeremy Oldfather, Amazon Web Services (AWS)
Samual MacDonald e Maciej Trzaskowski, Max Kelsen
Agosto 2020(cronologia dei documenti)
Fornire soluzioni di Machine Learning (ML) alla produzione è difficile. Non è facile sapere da dove iniziare, quali strumenti e tecniche usare e se lo stai facendo nel modo giusto. I professionisti del machine learning utilizzano tecniche diverse in base alle loro esperienze individuali oppure utilizzano strumenti prescritti sviluppati all'interno della loro azienda. In entrambi i casi, decidere cosa fare, implementare la soluzione e mantenerla richiedono investimenti significativi in tempo e risorse. Sebbene le tecniche di apprendimento automatico esistenti aiutino ad accelerare alcune parti del processo, l'integrazione di queste tecniche per fornire soluzioni solide richiede mesi di lavoro. Questa guida è la prima parte di una serie di contenuti incentrata sull'apprendimento automatico e fornisce esempi di come iniziare rapidamente. L'obiettivo della serie è aiutarti a standardizzare l'approccio ML, prendere decisioni di progettazione e fornire le tue soluzioni ML in modo efficiente. Pubblicheremo guide ML aggiuntive nei prossimi mesi, quindi controlla ilAWSGuida prescrittiva
Questa guida esplora le tecniche attuali per quantificare e gestire l'incertezza nei sistemi di deep learning, per migliorare la modellazione predittiva nelle soluzioni ML. Questo contenuto è destinato a data scientist, ingegneri dei dati, ingegneri del software e leader della scienza dei dati che desiderano fornire soluzioni ML di alta qualità e pronte per la produzione in modo efficiente e su larga scala. Le informazioni sono rilevanti per i data scientist indipendentemente dal loro ambiente cloud o dai Amazon Web Services (AWS) servizi che stanno utilizzando o intendono utilizzare.
Questa guida presuppone la familiarità con i concetti introduttivi di probabilità e deep learning. Per suggerimenti su come sviluppare competenze di machine learning nella tua organizzazione, consultaDeep learning Specialization
Introduzione
Se il successo nella scienza dei dati è definito dalle prestazioni predittive dei nostri modelli, il deep learning è sicuramente un ottimo strumento. Ciò è particolarmente vero per le soluzioni che utilizzano modelli non lineari e ad alta dimensione da set di dati molto grandi. Tuttavia, se il successo è definito anche dalla capacità di ragionare con incertezza e rilevare i fallimenti nella produzione, l'efficacia del deep learning diventa discutibile. Come possiamo quantificare al meglio l'incertezza? Come utilizziamo queste incertezze per gestire i rischi? Quali sono le patologie dell'incertezza che mettono alla prova l'affidabilità, e quindi la sicurezza, dei nostri prodotti? E come possiamo superare queste sfide?
Questa guida:
-
Introduce la motivazione per quantificare l'incertezza nei sistemi di deep learning
-
Spiega importanti concetti di probabilità relativi al deep learning
-
Dimostra l'attuale state-of-the-art tecniche per quantificare l'incertezza nei sistemi di deep learning, evidenziandone i vantaggi e i limiti associati
-
Esplora queste tecniche nell'ambito del transfer learning dell'elaborazione del linguaggio naturale (NLP)
-
Fornisce un case study ispirato a progetti eseguiti in un ambiente simile
Come discusso in questa guida, per quantificare l'incertezza nel deep learning, una buona regola empirica consiste nell'utilizzare il ridimensionamento della temperatura con insiemi profondi.
-
La scala della temperatura è uno strumento ideale per interpretare le stime di incertezza quando i dati possono essere considerati nella distribuzione (Guo e altri 2017).
-
Deep ensemble forniscono state-of-the-art stime dell'incertezza relativa alla mancata distribuzione dei dati (Ovadia e altri 2019).
Se l'ingombro di memoria dei modelli di hosting è un problema, puoi utilizzare il dropout di Monte Carlo (MC) al posto di gruppi profondi. Nel caso del transfer learning, valuta la possibilità di utilizzare MC dropout o deep ensemble con MC dropout.