Architecture et diagrammes de séquence - Amazon Rekognition

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Architecture et diagrammes de séquence

Les diagrammes suivants décrivent le fonctionnement d’Amazon Rekognition Face Liveness en ce qui concerne l’architecture de la fonctionnalité et la séquence des opérations :

Schéma de flux de détection de Rekognition montrant les interactions entre l'utilisateur final, l'application cliente, le FaceLivenessDetector composant, le backend du client, le service Rekognition et le service de streaming Rekognition pour la configuration des sessions Liveness, l'analyse vidéo et la récupération des résultats.
Flux de travail des applications client pour Face Liveness Check impliquant le composant FaceLivenessDetector Amplify, le service Rekognition, le backend client et le compartiment Amazon S3 stockant des images de référence et d'audit.

Le processus de vérification de la vivacité faciale comporte plusieurs étapes, comme indiqué ci-dessous :

  1. L’utilisateur lance un test Face Liveness dans l’application cliente.

  2. L’application cliente appelle le backend du client, qui à son tour appelle le service Amazon Rekognition. Le service crée une session Face Liveness et renvoie une session unique SessionId. Remarque : Une SessionId fois envoyé, il expire au bout de 3 minutes. Il n'y a donc que 3 minutes pour effectuer les étapes 3 à 7 ci-dessous. Un nouveau SessionID doit être utilisé pour chaque contrôle de Face Liveness. Si un ID de session donné est utilisé pour les tests Face Liveness ultérieurs, les contrôles échoueront. De plus, un SessionId fichier expire 3 minutes après son envoi, rendant toutes les données Liveness associées à la session (par exemple, l'identifiant de session, l'image de référence, les images d'audit, etc.) indisponibles.

  3. L'application client affiche le composant FaceLivenessDetector Amplify à l'aide des rappels SessionId obtenus et appropriés.

  4. Le FaceLivenessDetector composant établit une connexion au service de streaming Amazon Rekognition, affiche un ovale sur l'écran de l'utilisateur et affiche une séquence de lumières colorées. FaceLivenessDetector enregistre et diffuse des vidéos en temps réel sur le service de streaming Amazon Rekognition.

  5. Le service de streaming Amazon Rekognition traite la vidéo en temps réel, stocke les résultats et DisconnectEvent renvoie un FaceLivenessDetector au composant une fois le streaming terminé.

  6. Le FaceLivenessDetector composant appelle le onAnalysisComplete rappel pour signaler à l'application cliente que le streaming est terminé et que les scores sont prêts à être récupérés.

  7. L’application cliente appelle le backend du client pour obtenir un drapeau booléen indiquant si l’utilisateur était actif ou non. Le backend du client fait la demande au service Amazon Rekognition pour obtenir le score de confiance, les images de référence et les images d’audit. Le backend client utilise ces attributs pour déterminer si l’utilisateur est en ligne et renvoie une réponse appropriée à l’application cliente.

  8. Enfin, l'application client transmet la réponse au FaceLivenessDetector composant, qui affiche le success/failure message de manière appropriée pour terminer le flux.