Amazon Rekognition Video と Amazon Kinesis のリソースを設定する - Amazon Rekognition

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon Rekognition Video と Amazon Kinesis のリソースを設定する

次の手順では、ストリーミングビデオの顔認識に使用する Kinesis ビデオストリームとその他のリソースをプロビジョニングするための手順を説明します。

前提条件

この手順を実行するには、 AWS SDK for Java がインストールされている必要があります。詳細については、「Amazon Rekognition の開始方法」を参照してください。 AWS アカウント 使用する には、Amazon Rekognition API へのアクセス許可が必要です。詳細については、IAM ユーザーガイドの「Amazon Rekognition で定義されるアクション」を参照してください。

ビデオストリーム内の顔を認識するには (AWS SDK)
  1. まだの場合、Amazon Rekognition Video に Kinesis Video Streams と Kinesis Data Streams へのアクセスを許可するために IAM サービスロールを作成します。その ARN をメモします。詳細については、「を使用してストリームへのアクセスを許可する AmazonRekognitionServiceRole」を参照してください。

  2. コレクションを作成し、使用したコレクション識別子をメモします。

  3. 手順 2 で作成したコレクションで、検索する顔にインデックスを付けます

  4. Kinesis ビデオストリームの作成 と、ストリームの Amazon リソースネーム (ARN) を記録します。

  5. Kinesis データストリームを作成する。ストリーム名を で準備AmazonRekognitionし、ストリームの ARN を書き留めます。

これで、顔検索ストリームプロセッサを作成し、選択したストリームプロセッサ名を使用してストリームプロセッサを起動できます。

注記

ストリームプロセッサは、Kinesis ビデオストリームにメディアを取り込めることを確認した後に起動する必要があります。

Amazon Rekognition Video へのストリーミングビデオ

Amazon Rekognition Video にビデオをストリーミングするには、Amazon Kinesis Video Streams SDK を使用して、Kinesis ビデオストリームを作成し使用します。PutMedia オペレーションは、Amazon Rekognition Video が消費するビデオデータ フラグメント を Kinesis ビデオストリームに書き込みます。通常、各ビデオデータフラグメントは 2 ~ 10 秒間の長さで、自己完結型のビデオフレームのシーケンスを含みます。Amazon Rekognition Video は、3 つのタイプのフレーム (I、B、および P) を持つ H.264 エンコードされたビデオをサポートしています。詳細については、「フレーム間」を参照してください。フラグメントの最初のフレームは、I-frame でなければなりません。I-frame は、他のフレームから独立してデコードできます。

Kinesis ビデオストリームにビデオデータが到着すると、Kinesis Video Streams はフラグメントに一意の数値を割り当てます。例については、PutMedia 「 API の例」を参照してください。

  • Matroska (MKV) でエンコードされたソースからストリーミングする場合は、 PutMediaオペレーションを使用して、作成した Kinesis ビデオストリームにソースビデオをストリーミングします。詳細については、PutMedia 「 API の例」を参照してください。

  • デバイスカメラからストリーミングする場合は、GStreamer プラグインを使用したストリーミング を参照してください。