Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Utilisation des vidéos streaming
Vous pouvez utiliser Vidéo Amazon Rekognition pour détecter et reconnaître des visages dans des vidéos diffusées en streaming. Vidéo Amazon Rekognition utilise Amazon Kinesis Video Streams pour recevoir et traiter un flux vidéo. Vous créez un processeur de flux avec des paramètres indiquant ce que le processeur de flux doit détecter dans le flux vidéo. Rekognition envoie les résultats de détection d'étiquettes issus d'événements vidéo diffusés en continu sous forme de notifications Amazon et SNS Amazon S3. Rekognition génère les résultats de recherche de visages dans un flux de données Kinesis.
Les processeurs de flux de recherche de visages utilisent FaceSearchSettings
pour rechercher des visages dans une collection. Pour plus d’informations sur la mise en œuvre de processeurs de flux de recherche de visages pour analyser les visages dans le streaming vidéo, consultez Recherche de visages dans une collection en vidéo streaming.
Les processeurs de flux de détection d’étiquettes utilisent ConnectedHomeSettings
pour rechercher des personnes, des packages et des animaux de compagnie dans des événements vidéo en streaming. Pour plus d’informations sur la mise en œuvre des processeurs de flux de détection d’étiquettes, consultez Détection d’étiquettes dans des événements vidéo en streaming.
Présentation des opérations du processeur de flux Vidéo Amazon Rekognition
Pour démarrer l’analyse d’une vidéo en streaming, lancez un processeur de flux Vidéo Amazon Rekognition et une vidéo en streaming dans Vidéo Amazon Rekognition. Un processeur de flux Vidéo Amazon Rekognition vous permet de démarrer, d’arrêter et de gérer des processeurs de flux. Vous créez un processeur de flux en appelant CreateStreamProcessor. Les paramètres de demande pour créer un processeur de flux de recherche de visages incluent les Amazon Resource Names (ARNs) pour le flux vidéo Kinesis, le flux de données Kinesis et l'identifiant de la collection utilisée pour reconnaître les visages dans la vidéo en streaming. Les paramètres de demande pour créer un processeur de flux de surveillance de la sécurité incluent les Amazon Resource Names (ARNs) pour le flux vidéo Kinesis et le SNS sujet Amazon, les types d'objets que vous souhaitez détecter dans le flux vidéo et les informations relatives à un compartiment Amazon S3 pour les résultats de sortie. Ils comprennent également le nom que vous définissez pour le processeur de flux.
Vous commencez à traiter une vidéo en appelant l'StartStreamProcessoropération. Pour obtenir des informations sur l'état d'un processeur de flux, appelez DescribeStreamProcessor. Les autres opérations que vous pouvez effectuer consistent TagResourceà étiqueter un processeur de flux et DeleteStreamProcessorà supprimer un processeur de flux. Si vous utilisez un processeur de flux de recherche faciale, vous pouvez également l'utiliser StopStreamProcessorpour arrêter un processeur de flux. Pour obtenir la liste des processeurs de streaming de votre compte, appelez ListStreamProcessors.
Lorsque le processeur de flux commence à s’exécuter, vous diffusez la vidéo dans Vidéo Amazon Rekognition via le flux vidéo Kinesis que vous avez spécifié dans CreateStreamProcessor
. Vous pouvez utiliser l'opération Kinesis Video SDK PutMediaStreams pour diffuser de la vidéo dans le flux vidéo Kinesis. Pour un exemple, voir PutMediaAPIExemple.
Pour plus d’informations sur la manière dont votre application peut utiliser les résultats d’analyse Vidéo Amazon Rekognition à partir d’un processeur de flux de recherche faciale, consultez Lecture des résultats d’analyse de vidéo en streaming.