Selezione delle istanze per le fasi di Neptune ML - Amazon Neptune

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Selezione delle istanze per le fasi di Neptune ML

Le diverse fasi dell'elaborazione di Neptune ML utilizzano istanze SageMaker differenti. In questa sezione viene illustrato come scegliere il tipo di istanza corretto per ogni fase. Puoi trovare informazioni sui tipi di istanze e sui prezzi di SageMaker nella pagina dei prezzi di Amazon SageMaker.

Selezione di un'istanza per l'elaborazione dei dati

La fase di elaborazione dei dati di SageMaker richiede un'istanza di elaborazione con memoria e spazio di archiviazione su disco sufficienti per i dati di input, intermedi e di output. La quantità specifica di memoria e spazio di archiviazione su disco necessaria dipende dalle caratteristiche del grafo Neptune ML e dalle relative funzionalità esportate.

Per impostazione predefinita, Neptune ML sceglie l'istanza ml.r5 più piccola, la cui memoria è dieci volte più grande delle dimensioni dei dati del grafo esportati su disco.

Selezione di un'istanza per l'addestramento e la trasformazione del modello

La scelta del tipo di istanza corretto per l'addestramento del modello o la trasformazione del modello dipende dal tipo di attività, dalle dimensioni del grafo e dai requisiti dei tempi di risposta. Le istanze GPU offrono le prestazioni migliori. In genere è consigliabile usare le istanze seriali p3 e g4dn. Puoi anche usare le istanze p2 o p4d.

Per impostazione predefinita, Neptune ML sceglie l'istanza GPU più piccola con più memoria di quella richiesta dall'addestramento e dalla trasformazione del modello. Puoi trovare la selezione nel file train_instance_recommendation.json, nella posizione di output dell'elaborazione dati di Amazon S3. Ecco un esempio del contenuto di un file train_instance_recommendation.json:

{ "instance": "(the recommended instance type for model training and transform)", "cpu_instance": "(the recommended instance type for base processing instance)", "disk_size": "(the estimated disk space required)", "mem_size": "(the estimated memory required)" }

Selezione di un'istanza per un endpoint di inferenza

La selezione del tipo di istanza corretto per un endpoint di inferenza dipende dal tipo di attività, dalle dimensioni del grafo e dal budget. Per impostazione predefinita, Neptune ML sceglie l'istanza ml.m5d più piccola con più memoria di quella richiesta dall'endpoint di inferenza.

Nota

Se sono necessari più di 384 GB di memoria, Neptune ML utilizza un'istanza ml.r5d.24xlarge.

Puoi vedere il tipo di istanza consigliato da Neptune ML nel file infer_instance_recommendation.json disponibile nella posizione Amazon S3 in uso per l'addestramento del modello. Ecco un esempio del contenuto del file:

{ "instance" : "(the recommended instance type for an inference endpoint)", "disk_size" : "(the estimated disk space required)", "mem_size" : "(the estimated memory required)" }