Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Best practice
Questa sezione fornisce una panoramica delle AWS migliori pratiche per MLOps.
Gestione e separazione degli account
AWS le migliori pratiche per la gestione degli account consigliano di dividere gli account in quattro account per ogni caso d'uso: sperimentazione, sviluppo, test e produzione. È inoltre consigliabile disporre di un account di governance per la fornitura di MLOps risorse condivise all'interno dell'organizzazione e di un account data lake per fornire l'accesso centralizzato ai dati. La logica alla base di ciò è quella di separare completamente gli ambienti di sviluppo, test e produzione, evitare i ritardi causati dai limiti del servizio dovuti ai molteplici casi d'uso e ai team di data science che condividono lo stesso set di account e fornire una panoramica completa dei costi per ogni caso d'uso. Infine, è consigliabile separare i dati a livello di account, poiché ogni caso d'uso ha il proprio set di account.
Standard di sicurezza
Per soddisfare i requisiti di sicurezza, è consigliabile disattivare l'accesso pubblico a Internet e crittografare tutti i dati con chiavi personalizzate. Quindi, puoi distribuire un'istanza sicura di Amazon SageMaker AI Studio sull'account di sviluppo in pochi minuti utilizzando Service Catalog. Puoi anche ottenere funzionalità di controllo e monitoraggio dei modelli per ogni caso d'uso utilizzando l' SageMaker intelligenza artificiale tramite modelli distribuiti con SageMaker AI Projects.
Funzionalità dei casi d'uso
Una volta completata la configurazione dell'account, i data scientist della tua organizzazione possono richiedere un nuovo modello di caso d'uso utilizzando SageMaker AI Projects in SageMaker AI Studio. Questo processo implementa l'infrastruttura necessaria per disporre di MLOps funzionalità nell'account di sviluppo (con un supporto minimo da parte dei team centrali), come CI/CD pipeline, unit test, test dei modelli e monitoraggio dei modelli.
Ogni caso d'uso viene quindi sviluppato (o rifattorizzato nel caso di una base di codice applicativa esistente) per essere eseguito in un'architettura di intelligenza artificiale utilizzando SageMaker funzionalità di SageMaker intelligenza artificiale come il tracciamento degli esperimenti, la spiegabilità dei modelli, il rilevamento delle distorsioni e il monitoraggio della qualità. data/model Puoi aggiungere queste funzionalità a ciascuna pipeline di casi d'uso utilizzando le fasi delle pipeline in AI Pipelines. SageMaker
MLOps viaggio di maturità
Il percorso di MLOps maturità definisce le MLOps funzionalità necessarie rese disponibili in una configurazione a livello aziendale per garantire l'esistenza di un flusso di lavoro end-to-end modello. Il percorso di maturità si compone di quattro fasi:
Iniziale: in questa fase, crei l'account di sperimentazione. Inoltre, ti assicuri un nuovo AWS account all'interno della tua organizzazione in cui puoi sperimentare SageMaker Studio e altri nuovi servizi. AWS
Ripetibile: in questa fase, si standardizzano gli archivi di codice e lo sviluppo di soluzioni di ML. Adotterai inoltre un approccio di implementazione multi-account e standardizzerai i tuoi repository di codice per supportare la governance e gli audit dei modelli man mano che ampli l'offerta impiegando la scalabilità orizzontale. Ti consigliamo di adottare un approccio allo sviluppo di modelli pronti per la produzione con soluzioni standard fornite da un account di governance. I dati vengono archiviati in un account di data lake e i casi d'uso vengono sviluppati in due account. Il primo account riguarda la sperimentazione durante il periodo di esplorazione della data science. In questo resoconto, i data scientist scoprono modelli per risolvere i problemi aziendali e sperimentano molteplici possibilità. L'altro aspetto riguarda lo sviluppo, che avviene dopo che il modello migliore è stato identificato e il team di data science è pronto a lavorare nella pipeline di inferenza.
Affidabile: in questa fase, introduci il test, l'implementazione e l'implementazione multi-account. È necessario comprendere MLOps i requisiti e introdurre test automatici. Implementa le MLOps migliori pratiche per garantire che i modelli siano robusti e sicuri. Durante questa fase, introduci due nuovi account per i casi d'uso: un account di test per testare i modelli sviluppati in un ambiente che emula l'ambiente di produzione e un account di produzione per eseguire l'inferenza dei modelli durante le operazioni aziendali. Infine, utilizza il test, l'implementazione e il monitoraggio automatizzati dei modelli in una configurazione multi-account per garantire che i modelli soddisfino gli standard di alta qualità e prestazioni che hai impostato.
Scalabile: in questa fase, si modellano e si producono più soluzioni di ML. Diversi team e casi d'uso del machine learning iniziano ad adottarli MLOps durante il processo di creazione del end-to-end modello. Per raggiungere la scalabilità in questa fase, è inoltre necessario aumentare il numero di modelli nella libreria di modelli grazie al contributo di una base più ampia di data scientist, ridurre il time-to-value dall'idea al modello di produzione per più team dell'organizzazione e iterare man mano che si dimensiona.
Per ulteriori informazioni sul modello di MLOps maturità, consulta la roadmap di MLOps base per le imprese con Amazon SageMaker AI