Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Afficher les résultats de Rekognition avec Kinesis Video Streams en local
Vous pouvez consulter les résultats d'Amazon Rekognition Video Video Streams affichés dans votre flux d'Amazon Kinesis Video Streams à l'aide des exemples de tests de la bibliothèque d'analyseurs Amazon Kinesis Video Streams fournis sur - Rekognition Examples. KinesisVideo KinesisVideoRekognitionIntegrationExample
affiche les cadres de délimitations au-dessus des visages détectés et affiche la vidéo localement via JFrame. Ce processus suppose que vous avez correctement connecté une entrée multimédia provenant de la caméra de l’appareil à un flux vidéo Kinesis, et que vous avez démarré un processeur de flux Amazon Rekognition. Pour plus d’informations, consultez Streaming à l’aide d’un plugin GStreamer.
Étape 1 : installation de la bibliothèque d’analyseurs Kinesis Video Streams
Pour créer un répertoire et télécharger le référentiel Github, exécutez la commande suivante :
$ git clone https://github.com/aws/amazon-kinesis-video-streams-parser-library.git
Accédez au répertoire de la bibliothèque et exécutez la commande Maven suivante pour effectuer une installation propre :
$ mvn clean install
Étape 2 : configuration de l’exemple de test d’intégration de Kinesis Video Streams et Rekognition
Ouvrez le fichier KinesisVideoRekognitionIntegrationExampleTest.java
. Supprimez le @Ignore
juste après l’en-tête de la classe. Renseignez les champs de données avec les informations provenant de vos ressources Amazon Kinesis et Amazon Rekognition. Pour plus d’informations, consultez Configuration de vos ressources Vidéo Amazon Rekognition et Amazon Kinesis. Si vous diffusez une vidéo sur votre flux vidéo Kinesis, supprimez le paramètre inputStream
.
Consultez l’exemple de code suivant :
RekognitionInput rekognitionInput = RekognitionInput.builder() .kinesisVideoStreamArn("arn:aws:kinesisvideo:us-east-1:123456789012:stream/rekognition-test-video-stream") .kinesisDataStreamArn("arn:aws:kinesis:us-east-1:123456789012:stream/AmazonRekognition-rekognition-test-data-stream") .streamingProcessorName("rekognition-test-stream-processor") // Refer how to add face collection : // https://docs.aws.amazon.com/rekognition/latest/dg/add-faces-to-collection-procedure.html .faceCollectionId("rekognition-test-face-collection") .iamRoleArn("rekognition-test-IAM-role") .matchThreshold(0.95f) .build(); KinesisVideoRekognitionIntegrationExample example = KinesisVideoRekognitionIntegrationExample.builder() .region(Regions.US_EAST_1) .kvsStreamName("rekognition-test-video-stream") .kdsStreamName("AmazonRekognition-rekognition-test-data-stream") .rekognitionInput(rekognitionInput) .credentialsProvider(new ProfileCredentialsProvider()) // NOTE: Comment out or delete the inputStream parameter if you are streaming video, otherwise // the test will use a sample video. //.inputStream(TestResourceUtil.getTestInputStream("bezos_vogels.mkv")) .build();
Étape 3 : exécution de l’exemple de test d’intégration de Kinesis Video Streams et Rekognition
Assurez-vous que votre flux vidéo Kinesis reçoit une entrée multimédia si vous le diffusez, et commencez à analyser votre flux avec un processeur de diffusion vidéo Amazon Rekognition en cours d’exécution. Pour plus d’informations, consultez Présentation du fonctionnement du processeur de flux vidéo Amazon Rekognition. Exécutez la classe KinesisVideoRekognitionIntegrationExampleTest
en tant que test JUnit. Après un court laps de temps, une nouvelle fenêtre s’ouvre avec un flux vidéo issu de votre flux vidéo Kinesis, avec des cadres de délimitation dessinés au-dessus des visages détectés.
Note
Les visages de la collection utilisée dans cet exemple doivent avoir un ID d'image externe (le nom du fichier) spécifié dans ce format pour que les étiquettes des encadrés affichent un texte significatif : PersonName 1-Trusted, PersonName 2-Intruder, 3-Neutral, etc. PersonName Les étiquettes peuvent également être codées par couleur et sont personnalisables dans le FaceType fichier .java.