Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Architektur- und Reihenfolgediagramme
In den folgenden Diagrammen wird detailliert beschrieben, wie Amazon Rekognition Face Liveness in Bezug auf die Architektur und die Reihenfolge der Operationen der Funktion funktioniert:


Der Prozess zur Kontrolle von Face Liveness umfasst mehrere Schritte, die im Folgenden beschrieben werden:
-
Der Benutzer initiiert in der Client-App eine Kontrolle der Face Liveness.
Die Client-App ruft das Backend des Kunden auf, das wiederum den Amazon-Rekognition-Service aufruft. Der Service erstellt eine Face Liveness-Sitzung und gibt eine eindeutige Sitzung zurück. SessionId Hinweis: Nachdem eine SessionId gesendet wurde, läuft sie in 3 Minuten ab, sodass nur ein Zeitfenster von 3 Minuten zur Verfügung steht, um die nachfolgenden Schritte 3 bis 7 abzuschließen. Für jeden Face Liveness Check muss eine neue SessionID verwendet werden. Wenn eine bestimmte SessionID für nachfolgende Face Liveness-Checks verwendet wird, schlagen die Prüfungen fehl. Darüber hinaus SessionId läuft eine Datei 3 Minuten nach dem Senden ab, sodass alle mit der Sitzung verknüpften Liveness-Daten (z. B. SessionID, Referenzbild, Audit-Bilder usw.) nicht verfügbar sind.
-
Die Client-App rendert die FaceLivenessDetector Amplify-Komponente unter Verwendung der erhaltenen SessionId und entsprechenden Callbacks.
-
Die FaceLivenessDetector Komponente stellt eine Verbindung zum Amazon Rekognition-Streaming-Dienst her, rendert ein Oval auf dem Bildschirm des Benutzers und zeigt eine Abfolge von farbigen Lichtern an. FaceLivenessDetector zeichnet Videos in Echtzeit auf und streamt sie an den Amazon Rekognition Rekognition-Streaming-Service.
-
Der Amazon Rekognition Rekognition-Streaming-Service verarbeitet das Video in Echtzeit, speichert die Ergebnisse und gibt a DisconnectEvent an die FaceLivenessDetector Komponente zurück, wenn das Streaming abgeschlossen ist.
-
Die FaceLivenessDetector Komponente ruft den
onAnalysisComplete
Callback auf, um der Client-App zu signalisieren, dass das Streaming abgeschlossen ist und die Ergebnisse abgerufen werden können. -
Die Client-App ruft das Backend des Kunden auf, um eine boolesche Markierung zu erhalten, die angibt, ob der Benutzer live war oder nicht. Das Kunden-Backend sendet eine Anforderung an den Amazon-Rekognition-Service, um den Vertrauenswert, die Referenz und die Auditbilder zu erhalten. Das Kunden-Backend verwendet diese Attribute, um festzustellen, ob der Benutzer aktiv ist, und sendet eine entsprechende Antwort an die Client-App zurück.
-
Schließlich leitet die Client-App die Antwort an die FaceLivenessDetector Komponente weiter, die die success/failure Nachricht entsprechend rendert, um den Ablauf abzuschließen.