Trabajar con eventos de vídeo en streaming - Amazon Rekognition

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Trabajar con eventos de vídeo en streaming

Puede usar Amazon Rekognition Video para detectar y reconocer rostros o detectar objetos en vídeo en streaming. Amazon Rekognition Video utiliza Amazon Kinesis Video Streams para recibir y procesar una transmisión de vídeo. Usted crea un procesador de transmisión con parámetros que muestran lo que desea que el procesador de transmisión detecte en la transmisión de vídeo. Rekognition envía los resultados de detección de etiquetas de eventos de vídeo en streaming como notificaciones de Amazon SNS y Amazon S3. Rekognition envía los resultados de la búsqueda de rostros a un flujo de datos de Kinesis.

Los procesadores de transmisión de búsqueda de rostros utilizan FaceSearchSettings para buscar rostros de una colección. Para obtener más información sobre cómo implementar los procesadores de secuencias de búsqueda de rostros para analizar los rostros en la transmisión de vídeo, consulte Búsqueda de rostros en una colección en streaming de vídeo.

Los procesadores de flujo de detección de etiquetas utilizan ConnectedHomeSettings para buscar personas, paquetes y mascotas en eventos de transmisión de vídeo. Para obtener más información acerca de cómo implementar los procesadores de flujo de detección de etiquetas, consulte Detección de etiquetas en eventos de vídeo en streaming.

Descripción general de las operaciones del procesador de transmisión de Amazon Rekognition Video

El análisis de un vídeo en streaming comienza iniciando un procesador de streaming de Amazon Rekognition Video y transmitiendo vídeo a Amazon Rekognition Video. Un procesador de streaming de Amazon Rekognition Video le permite iniciar, detener y administrar procesadores de streaming. Para crear un procesador de flujo, llame a CreateStreamProcessor. Los parámetros de solicitud para crear un procesador de transmisión de rostros incluyen los nombres de recursos de Amazon (ARN) para la transmisión de vídeo de Kinesis, el flujo de datos de Kinesis y el identificador de la colección que se utiliza para reconocer rostros en el vídeo en streaming. Los parámetros de solicitud para crear un procesador de transmisiones de monitoreo de seguridad incluyen los nombres de recursos de Amazon (ARN) para la transmisión de vídeo de Kinesis y el tema Amazon SNS, los tipos de objetos que desea detectar en la transmisión de vídeo y la información de un bucket de Amazon S3 para los resultados de salida. También incluye el nombre que especifica para el procesador de streaming.

Comienza a procesar un vídeo llamando a la operación StartStreamProcessor. Para obtener la información de estado de un procesador de streaming, llame a DescribeStreamProcessor. Otras operaciones que puede llamar son TagResource para detener un procesador de streaming y DeleteStreamProcessor para eliminar un procesador de streaming. Si utiliza un procesador de secuencias de búsqueda facial, también puede usar StopStreamProcessor para detener un procesador de secuencias. Para obtener una lista de los procesadores de streaming en su cuenta, llame a ListStreamProcessors.

Después de que el procesador de streaming comienza a ejecutarse, transmita el vídeo en Amazon Rekognition Video a través de la transmisión de vídeo de Kinesis que especificó en CreateStreamProcessor. Puede utilizar la operación PutMedia del SDK de Kinesis Video Streams para entregar vídeo a la transmisión de vídeo de Kinesis. Para ver un ejemplo, consulte PutMedia API Example.

Para obtener información sobre cómo su aplicación puede consumir los resultados del análisis de Amazon Rekognition Video de un procesador de secuencias de búsqueda facial, consulte Lectura de los resultados del análisis de vídeo en streaming.