Implementa un modello in Amazon SageMaker - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Implementa un modello in Amazon SageMaker

Dopo aver addestrato il tuo modello di machine learning, puoi distribuirlo utilizzando Amazon SageMaker per ottenere previsioni. Amazon SageMaker supporta i seguenti modi per distribuire un modello, a seconda del caso d'uso:

SageMaker fornisce inoltre funzionalità per gestire le risorse e ottimizzare le prestazioni di inferenza durante l'implementazione di modelli di apprendimento automatico:

  • Per gestire i modelli sui dispositivi perimetrali in modo da ottimizzare, proteggere, monitorare e gestire i modelli di machine learning su flotte di dispositivi periferici, consulta. Implementa modelli all'edge con Edge Manager SageMaker Questo vale per i dispositivi periferici come fotocamere intelligenti, robot, personal computer e dispositivi mobili.

  • Per ottimizzare i modelli Gluon, Keras, MXNet, PyTorch TensorFlow, TensorFlow -Lite e ONNX per l'inferenza su macchine Android, Linux e Windows basate su processori di Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments e Xilinx, vedi. Ottimizzazione delle prestazioni del modello con Neo

Per ulteriori informazioni su tutte le opzioni di implementazione, consulta Implementa modelli per l'inferenza.