Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Panoramica delle pipeline

Modalità Focus
Panoramica delle pipeline - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Una pipeline Amazon SageMaker AI è una serie di passaggi interconnessi in grafo aciclico diretto (DAG) definiti utilizzando l'interfaccia utente o l' drag-and-dropSDK Pipelines. Puoi anche creare la tua pipeline utilizzando lo schema JSON di definizione della pipeline. Questa definizione DAG JSON fornisce informazioni sui requisiti e sulle relazioni tra ogni fase della pipeline. La struttura del DAG di una pipeline è determinata dalle dipendenze dei dati tra le varie fasi. Queste dipendenze tra i dati vengono create quando le proprietà dell'output di una fase vengono trasmesse come input a un'altra fase. L'immagine seguente è un esempio di DAG di pipeline:

Un esempio di grafo aciclico diretto dalla pipeline (DAG).
L'esempio DAG include i seguenti passaggi:
  1. AbaloneProcess, un'istanza della fase Processing, esegue uno script di preelaborazione sui dati utilizzati per l'addestramento. Ad esempio, lo script può inserire i valori mancanti, normalizzare i dati numerici o suddividere i dati nei set di dati di addestramento, convalida e test.

  2. AbaloneTrain, un'istanza della fase di addestramento, configura gli iperparametri e addestra un modello a partire dai dati di input preelaborati.

  3. AbaloneEval, un'altra istanza della fase Processing, valuta la precisione del modello. Questo passaggio mostra un esempio di dipendenza dai dati: questo passaggio utilizza l'output del set di dati di test di. AbaloneProcess

  4. AbaloneMSECondè un'istanza di una fase Condition che, in questo esempio, verifica che il mean-square-error risultato della valutazione del modello sia inferiore a un determinato limite. Se il modello non soddisfa i criteri, l'esecuzione della pipeline si interrompe.

  5. L'esecuzione della pipeline procede con i seguenti passaggi:

    1. AbaloneRegisterModel, dove l' SageMaker intelligenza artificiale richiede una RegisterModelfase per registrare il modello come gruppo di pacchetti di modelli con versioni nell'Amazon SageMaker Model Registry.

    2. AbaloneCreateModel, dove l' SageMaker intelligenza artificiale prevede una CreateModelfase per creare il modello in preparazione della trasformazione in batch. NelAbaloneTransform, l' SageMaker intelligenza artificiale richiama una fase di trasformazione per generare previsioni del modello su un set di dati specificato dall'utente.

I seguenti argomenti descrivono i concetti fondamentali di Pipelines. Per un tutorial che descrive l'implementazione di questi concetti, consulta Azioni relative alle pipeline.

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.