Configurare il dispositivo - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Configurare il dispositivo

Dovrai installare i pacchetti sul tuo dispositivo edge in modo che il dispositivo possa fare inferenze. Dovrai anche installare il core AWS IoT Greengrass o Deep Learning Runtime (DLR). In questo esempio, installerai i pacchetti necessari per creare inferenze per l'algoritmo di rilevamento degli oggetti coco_ssd_mobilenet e utilizzerai DLR.

  1. Installa pacchetti aggiuntivi

    Oltre a Boto3, devi installare alcune librerie sul tuo dispositivo edge. Le librerie da installare sono diverse a seconda del caso d'uso.

    Ad esempio, per l'algoritmo di rilevamento degli coco_ssd_mobilenet oggetti che hai scaricato in precedenza, devi installare NumPyper la manipolazione dei dati e le statistiche, PIL per caricare le immagini e Matplotlib per generare grafici. È inoltre necessaria una copia di TensorFlow se si desidera valutare l'impatto della compilazione con Neo rispetto a quella di base.

    !pip3 install numpy pillow tensorflow matplotlib
  2. Installa il motore di inferenza sul tuo dispositivo

    Per eseguire il modello NEO compilato, installa Deep Learning Runtime (DLR) sul tuo dispositivo. DLR è un runtime compatto e comune per modelli di deep learning e modelli di alberi decisionali. Su destinazioni CPU x86_64 che eseguono Linux, è possibile installare l'ultima versione del pacchetto DLR utilizzando il seguente comando pip:

    !pip install dlr

    Per l'installazione di DLR su destinazioni GPU o dispositivi edge non x86, consulta Rilasci per binari predefiniti o Installazione di DLR per creare DLR dall’origine. Ad esempio, per installare DLR per Raspberry Pi 3, puoi usare:

    !pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl