Notebook di esempio di Amazon SageMaker Autopilot - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Notebook di esempio di Amazon SageMaker Autopilot

I seguenti notebook sono esempi pratici e pratici che affrontano vari casi d'uso di Autopilot.

Puoi trovare tutti i taccuini di Autopilot nell'archivio della directory degli esempi. autopilot SageMaker GitHub

Consigliamo di clonare l'intero repository Git all'interno di Studio Classic per accedere ed eseguire direttamente i notebook. Per informazioni su come clonare un repository Git in Studio Classic, vedere. Clona un repository Git in Studio Classic SageMaker

Caso d'uso Descrizione
Inferenza serverless

Per impostazione predefinita, Autopilot consente di distribuire modelli generati su endpoint di inferenza in tempo reale. In questo repository, il notebook illustra come distribuire modelli Autopilot addestrati con le modalità ENSEMBLING e HYPERPARAMETER OPTIMIZATION (HPO) su endpoint serverless. Gli endpoint serverless avviano automaticamente le risorse di calcolo e le ridimensionano in base al traffico, eliminando la necessità di scegliere i tipi di istanza o gestire le policy di scalabilità.

Selezione di funzionalità personalizzate

Autopilot ispeziona il set di dati ed esegue una serie di candidati per individuare la combinazione ottimale di fasi di preelaborazione dei dati, algoritmi di machine learning e iperparametri. È possibile implementarlo facilmente su un endpoint in tempo reale o per l'elaborazione in batch.

In alcuni casi, può essere opportuno avere la flessibilità necessaria per aggiungere codice di elaborazione dati personalizzato ad Autopilot. Ad esempio, i set di dati potrebbero contenere un gran numero di variabili indipendenti e potresti voler incorporare una fase di selezione delle funzionalità personalizzata per rimuovere prima le variabili irrilevanti. Il set di dati più piccolo risultante può quindi essere utilizzato per avviare un processo Autopilot. In definitiva, dovresti includere anche il codice di elaborazione personalizzato e i modelli di Autopilot per l'elaborazione in tempo reale o in batch.

Esempio di pipeline

Sebbene Autopilot semplifichi il processo di creazione di modelli ML, gli ingegneri di MLOps sono comunque responsabili della creazione, dell'automazione e della gestione dei flussi di lavoro ML in produzione. end-to-end SageMaker Le pipeline possono aiutare ad automatizzare varie fasi del ciclo di vita del machine learning, come la preelaborazione dei dati, l'addestramento dei modelli, l'ottimizzazione degli iperparametri, la valutazione dei modelli e l'implementazione. Questo notebook serve come dimostrazione di come incorporare Autopilot in un flusso di lavoro di formazione di Pipelines SageMaker AutoML. end-to-end Per avviare un esperimento Autopilot all'interno di Pipelines, è necessario creare un flusso di lavoro per la creazione di modelli scrivendo codice di integrazione personalizzato utilizzando le fasi Lambda o Elaborazione di Pipelines. Per ulteriori informazioni, consulta Spostare i modelli Amazon SageMaker Autopilot ML dalla sperimentazione alla produzione utilizzando Amazon Pipelines. SageMaker

In alternativa, quando si utilizza Autopilot in modalità Ensembling, è possibile fare riferimento all'esempio del notebook che dimostra come utilizzare il passaggio AutoML nativo nel passaggio AutoML nativo di Pipeline. SageMaker Con Autopilot supportato come fase nativa all'interno di Pipelines, ora puoi aggiungere una fase di addestramento automatizzata (AutoMLStep) alle tue pipeline e richiamare un esperimento Autopilot in modalità Ensembling.

Altri notebook

Puoi trovare altri notebook che illustrano altri casi d'uso come la trasformazione in batch, la previsione delle serie temporali e altro ancora nella directory root.