Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Configurare il dispositivo
Dovrai installare i pacchetti sul tuo dispositivo edge in modo che il dispositivo possa fare inferenze. Dovrai anche installare il core AWS IoT Greengrass o Deep Learning Runtime (DLR)coco_ssd_mobilenet
e utilizzerai DLR.
-
Installa pacchetti aggiuntivi
Oltre a Boto3, devi installare alcune librerie sul tuo dispositivo edge. Le librerie da installare sono diverse a seconda del caso d'uso.
Ad esempio, per l'algoritmo di rilevamento degli
coco_ssd_mobilenet
oggetti che hai scaricato in precedenza, devi installare NumPyper la manipolazione dei dati e le statistiche, PIL per caricare le immagini e Matplotlib per generare grafici. È inoltre necessaria una copia di TensorFlow se si desidera valutare l'impatto della compilazione con Neo rispetto a quella di base. !pip3 install numpy pillow tensorflow matplotlib
-
Installa il motore di inferenza sul tuo dispositivo
Per eseguire il modello NEO compilato, installa Deep Learning Runtime (DLR)
sul tuo dispositivo. DLR è un runtime compatto e comune per modelli di deep learning e modelli di alberi decisionali. Su destinazioni CPU x86_64 che eseguono Linux, è possibile installare l'ultima versione del pacchetto DLR utilizzando il seguente comando pip
:!pip install dlr
Per l'installazione di DLR su destinazioni GPU o dispositivi edge non x86, consulta Rilasci
per binari predefiniti o Installazione di DLR per creare DLR dall’origine. Ad esempio, per installare DLR per Raspberry Pi 3, puoi usare: !pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl