Utilisation d'événements vidéo en streaming - Amazon Rekognition

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Utilisation d'événements vidéo en streaming

Vous pouvez utiliser Amazon Rekognition Video pour détecter et reconnaître des visages ou pour détecter des objets dans une vidéo en streaming. Amazon Rekognition Video utilise Amazon Kinesis Video Streams pour recevoir et traiter un flux vidéo. Vous créez un processeur de flux avec des paramètres qui indiquent ce que vous souhaitez que le processeur de flux détecte à partir du flux vidéo. Rekognition envoie les résultats de détection d'étiquettes provenant d'événements vidéo diffusés sous forme de notifications Amazon SNS et Amazon S3. Rekognition transmet les résultats de la recherche faciale à un flux de données Kinesis.

Utilisation des processeurs de flux de recherche facialeFaceSearchSettingspour rechercher des visages dans une collection. Pour plus d'informations sur la façon d'implémenter des processeurs de flux de recherche faciale pour analyser les visages dans des vidéos en streaming, voirRecherche de visages dans une collection en vidéo streaming.

Utilisation par les processeurs de flux de détection d'étiquettesConnectedHomeSettingspour rechercher des personnes, des packages et des animaux de compagnie dans le cadre d'événements vidéo en streaming. Pour plus d'informations sur la mise en œuvre des processeurs de flux de détection d'étiquettes, voirDétecter les étiquettes dans les événements vidéo en streaming.

Présentation du fonctionnement du processeur de flux vidéo Amazon Rekognition

Vous commencez à analyser une vidéo en streaming en démarrant un processeur de diffusion Amazon Rekognition Video et en diffusant la vidéo dans Amazon Rekognition Video. Un processeur de flux vidéo Amazon Rekognition vous permet de démarrer, d'arrêter et de gérer les processeurs de flux. Vous créez un processeur de flux en appelant CreateStreamProcessor. Les paramètres de demande pour créer un processeur de flux de recherche de visages incluent les Amazon Resource Names (ARN) pour le flux vidéo Kinesis, le flux de données Kinesis et l'identifiant de la collection utilisée pour reconnaître les visages dans la vidéo en streaming. Les paramètres de demande pour créer un processeur de flux de surveillance de la sécurité incluent les noms de ressources Amazon (ARN) pour le flux vidéo Kinesis et la rubrique Amazon SNS, les types d'objets que vous souhaitez détecter dans le flux vidéo et les informations relatives à un compartiment Amazon S3 pour les résultats de sortie. Vous incluez également un nom que vous spécifiez pour le processeur de flux.

Vous commencez le traitement d'une vidéo en appelant l'opération StartStreamProcessor. Pour obtenir des informations sur l'état d'un processeur de flux, appelez DescribeStreamProcessor. Les autres opérations que vous pouvez appeler sontTagResourcepour baliser un processeur de flux etDeleteStreamProcessorpour supprimer un processeur de flux. Si vous utilisez un processeur de flux de recherche faciale, vous pouvez également utiliserStopStreamProcessorpour arrêter un processeur de flux. Pour obtenir une liste des processeurs de flux de votre compte, appelez ListStreamProcessors.

Une fois que le processeur de diffusion démarre, vous diffusez la vidéo dans Amazon Rekognition Video via le flux vidéo Kinesis que vous avez spécifié dansCreateStreamProcessor. Vous pouvez utiliser le SDK Kinesis Video StreamsPutMediaopération permettant de diffuser de la vidéo dans le flux vidéo Kinesis. Pour un exemple, voirPutMediaExemple d'API.

Pour plus d'informations sur la manière dont votre application peut utiliser les résultats d'analyse Amazon Rekognition Video issus d'un processeur de flux de recherche faciale, consultezLecture des résultats d’analyse de vidéo en streaming.