Seleccione sus preferencias de cookies

Usamos cookies esenciales y herramientas similares que son necesarias para proporcionar nuestro sitio y nuestros servicios. Usamos cookies de rendimiento para recopilar estadísticas anónimas para que podamos entender cómo los clientes usan nuestro sitio y hacer mejoras. Las cookies esenciales no se pueden desactivar, pero puede hacer clic en “Personalizar” o “Rechazar” para rechazar las cookies de rendimiento.

Si está de acuerdo, AWS y los terceros aprobados también utilizarán cookies para proporcionar características útiles del sitio, recordar sus preferencias y mostrar contenido relevante, incluida publicidad relevante. Para aceptar o rechazar todas las cookies no esenciales, haga clic en “Aceptar” o “Rechazar”. Para elegir opciones más detalladas, haga clic en “Personalizar”.

Dispositivos periféricos

Modo de enfoque
Dispositivos periféricos - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Amazon SageMaker Neo admite marcos de machine learning de uso generalizado. Puede implementar sus dispositivos periféricos compilados en NEO, como Raspberry Pi 3, Sitara de Texas Instruments o Jetson TX1, entre otros. Para obtener una lista completa de los marcos y dispositivos periféricos compatibles, consulte Marcos, dispositivos, sistemas y arquitecturas compatibles.

Debe configurar el dispositivo periférico para que pueda utilizar servicios AWS. Una forma de hacerlo consiste en instalar DLR y Boto3 en su dispositivo. Para ello, debe configurar las credenciales de autenticación. Consulte Configuración de Boto3 AWS para obtener más información. Una vez compilado el modelo y configurado el dispositivo periférico, puede descargar el modelo de Amazon S3 a su dispositivo periférico. Desde allí, puede usar Tiempo de ejecución de aprendizaje profundo (DLR) para leer el modelo compilado y hacer inferencias.

Para los usuarios primerizos, le recomendamos que consulte la guía de Introducción. Esta guía explica cómo configurar las credenciales, compilar un modelo, implementar el modelo en Raspberry Pi 3 y hacer inferencias en imágenes.

PrivacidadTérminos del sitioPreferencias de cookies
© 2025, Amazon Web Services, Inc o sus afiliados. Todos los derechos reservados.