Arbeiten mit Streaming-Videoereignissen - Amazon Rekognition

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Arbeiten mit Streaming-Videoereignissen

Sie können Amazon Rekognition Video verwenden, um Gesichter oder Objekte in Streaming-Videos zu erkennen und zu erkennen. Amazon Rekognition Video verwendet Amazon Kinesis Video Streams, um einen Videostream zu empfangen und zu verarbeiten. Sie erstellen einen Stream-Prozessor mit Parametern, die zeigen, was der Streamprozessor aus dem Videostream erkennen soll. Rekognition sendet die Ergebnisse der Labelerkennung von Streaming-Videoereignissen als Amazon SNS- und Amazon S3-Benachrichtigungen. Rekognition gibt die Ergebnisse der Gesichtssuche in einen Kinesis-Datenstrom aus.

Streamprozessoren für die Gesichtssuche verwendenFaceSearchSettingsum nach Gesichtern aus einer Sammlung zu suchen. Weitere Informationen zur Implementierung von Face Search Stream-Prozessoren zur Analyse von Gesichtern in Streaming-Videos finden Sie unterSuchen nach Gesichtern in einer Sammlung im Streaming-Video.

Streamprozessoren zur Labelerkennung verwendenConnectedHomeSettingsum bei Streaming-Videoevents nach Personen, Paketen und Haustieren zu suchen. Weitere Hinweise zur Implementierung von Label-Detektion-Stream-Prozessoren finden Sie unterErkennung von Labels bei Streaming-Videoereignissen.

Überblick über die Funktionen des Amazon Rekognition Video-Stream-Prozessors

Sie beginnen mit der Analyse eines Streaming-Videos, indem Sie einen Amazon Rekognition Video-Streamprozessor starten und Video in Amazon Rekognition Video streamen. Mit einem Amazon Rekognition Video-Streamprozessor können Sie Stream-Prozessoren starten, stoppen und verwalten. Sie erstellen einen Stream-Prozessor, indem Sie CreateStreamProcessor aufrufen. Zu den Anforderungsparametern für die Erstellung eines Prozessors für die Gesichtssuche gehören die Amazon Resource Names (ARNs) für den Kinesis-Videostream, den Kinesis-Datenstream und die Kennung für die Sammlung, die zur Erkennung von Gesichtern im Streaming-Video verwendet wird. Zu den Anforderungsparametern für die Erstellung eines Stream-Prozessors zur Sicherheitsüberwachung gehören die Amazon Resource Names (ARNs) für den Kinesis-Videostream und das Amazon SNS-Thema, die Objekttypen, die Sie im Videostream erkennen möchten, sowie Informationen für einen Amazon S3-Bucket für die Ausgabeergebnisse. Sie geben auch einen Namen an, den Sie für den Stream-Prozessor angeben.

Sie starten die Verarbeitung eines Videos durch Aufrufen der StartStreamProcessor-Operation. Um Statusinformationen für einen Stream-Prozessor zu erhalten, machen Sie den Aufruf DescribeStreamProcessor. Andere Operationen, die Sie aufrufen können, sindTagResourceum einen Stream-Prozessor zu taggen undDeleteStreamProcessorum einen Stream-Prozessor zu löschen. Wenn Sie einen Face-Search-Stream-Prozessor verwenden, können Sie auchStopStreamProcessorum einen Stream-Prozessor zu stoppen. Um eine Liste der Stream-Prozessoren in Ihrem Konto zu erhalten, rufen Sie ListStreamProcessors auf.

Nachdem der Streamprozessor gestartet ist, streamen Sie das Video über den Kinesis-Videostream, den Sie unter angegeben haben, in Amazon Rekognition Video.CreateStreamProcessor. Sie können das Kinesis Video Streams SDK verwendenPutMediaVorgang zur Übertragung von Video in den Kinesis-Videostream. Ein Beispiel finden Sie unterPutMediaAPI-Beispiel.

Informationen darüber, wie Ihre Anwendung die Analyseergebnisse von Amazon Rekognition Video von einem Face-Search-Stream-Prozessor verarbeiten kann, finden Sie unterLesen von Streaming-Video-Analyseergebnissen.