Panoramica della soluzione -

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Panoramica della soluzione

Un framework ML scalabile

In un'azienda con milioni di clienti distribuiti su più linee di business, i flussi di lavoro ML richiedono l'integrazione di dati posseduti e gestiti da team isolati che utilizzano strumenti diversi per sbloccare il valore aziendale. Le banche si impegnano a proteggere i dati dei propri clienti. Allo stesso modo, anche l'infrastruttura utilizzata per lo sviluppo di modelli ML è soggetta a elevati standard di sicurezza. Questa sicurezza aggiuntiva aggiunge ulteriore complessità e influisce sul time to value dei nuovi modelli ML. In un framework ML scalabile, è possibile utilizzare un set di strumenti modernizzato e standardizzato per ridurre lo sforzo necessario per combinare diversi strumenti e semplificare il route-to-live processo per i nuovi modelli di machine learning.

Normalmente, la gestione e il supporto delle attività di data science nel settore FS sono controllati da un team di piattaforma centrale che raccoglie i requisiti, fornisce risorse e mantiene l'infrastruttura per i team di dati in tutta l'organizzazione. Per dimensionare rapidamente l'uso del machine learning nei team federati dell'organizzazione, puoi utilizzare un framework ML scalabile per fornire funzionalità self-service agli sviluppatori di nuovi modelli e pipeline. Ciò consente a questi sviluppatori di implementare un'infrastruttura moderna, preapprovata, standardizzata e sicura. In definitiva, queste funzionalità self-service riducono la dipendenza dell'organizzazione dai team di piattaforma centralizzati e velocizzano il time-to-value per lo sviluppo di modelli di machine learning.

Il framework ML scalabile consente ai consumatori di dati (ad esempio, data scientist o ingegneri di machine learning) di sbloccare il valore aziendale offrendo loro la possibilità di fare quanto segue:

  • Esplorare e scoprire i dati preapprovati necessari per la formazione dei modelli

  • Accedere ai dati preapprovati in modo rapido e semplice

  • Utilizzare dati preapprovati per dimostrare la fattibilità del modello

  • Mettere in produzione il modello collaudato per consentirne l'utilizzo da parte di altri

Il diagramma seguente evidenzia il end-to-end flusso del framework e il percorso semplificato di utilizzo per i casi d'uso del machine learning.

AWS Service Catalog shared account connecting to development, test, and production accounts.

In un contesto più ampio, i consumatori di dati utilizzano un acceleratore serverless chiamato data.all per reperire dati su più data lake e quindi utilizzare i dati per addestrare i propri modelli, come illustrato nel diagramma seguente.

Data flow diagram showing MLOps and other applications interacting with data producers and consumers.

A un livello inferiore, il framework ML scalabile contiene quanto segue:

Un hub centrale per i metadati

Data.all è un acceleratore serverless che puoi integrare con i data lake AWS esistenti per raccogliere i metadati in un hub centrale. Una semplice easy-to-use interfaccia utente in data.all mostra i metadati associati ai set di dati provenienti da più data lake esistenti. Ciò consente sia agli utenti non tecnici che a quelli tecnici di cercare, sfogliare e richiedere l'accesso a dati importanti che possono essere utilizzati nei propri laboratori di machine learning. Data.all uses AWS Lake Formation, AWS Lambda Amazon Elastic Container Service (Amazon ECS) AWS Fargate, OpenSearch Amazon Service e. AWS Glue

SageMaker convalida

Per dimostrare le capacità dell' SageMaker intelligenza artificiale in una vasta gamma di architetture di elaborazione dati e ML, il team che implementa le funzionalità seleziona, insieme al team dirigenziale del settore bancario, casi d'uso di varia complessità provenienti da diverse divisioni dei clienti bancari. I dati dei casi d'uso vengono offuscati e resi disponibili in un bucket di dati locale di Amazon Simple Storage Service (Amazon S3) nell'account di sviluppo dei casi d'uso per la fase di verifica delle funzionalità.

Una volta completata la migrazione del modello dall'ambiente di formazione originale a un'architettura di SageMaker intelligenza artificiale, il data lake ospitato nel cloud rende i dati disponibili per essere letti dai modelli di produzione. Le previsioni generate dai modelli di produzione vengono quindi riscritte nel data lake.

Dopo la migrazione dei casi d'uso candidati, il framework ML scalabile utilizza un valore di riferimento iniziale per i parametri di destinazione. Puoi confrontare il valore di riferimento con le precedenti tempistiche on premise o di altri provider di servizi cloud come prova dei miglioramenti temporali consentiti dal framework ML scalabile.