Amazon Rekognition Video 및 Amazon Kinesis 리소스 설정 - Amazon Rekognition

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon Rekognition Video 및 Amazon Kinesis 리소스 설정

다음 절차는 스트리밍 비디오에서 얼굴을 인식하는 데 사용되는 Kinesis 비디오 스트림 및 기타 리소스를 프로비저닝하기 위해 수행할 단계를 설명합니다.

필수 조건

이 절차를 실행하려면 프로그램을 설치해야 합니다. AWS SDK for Java 자세한 정보는 Amazon Rekognition 시작을 참조하세요. AWS 계정 사용자는 Amazon Rekognition API에 대한 액세스 권한을 가지고 있어야 합니다. 자세한 내용은 IAM 사용 설명서Amazon Rekognition에서 정의한 작업을 참조하세요.

비디오 스트림에서 얼굴을 인식하려면(AWS SDK)
  1. IAM 서비스 역할을 아직 생성하지 않은 경우 생성하여 Kinesis 비디오 스트림 및 Kinesis 데이터 스트림에 대한 Amazon Rekognition Video 액세스 권한을 부여하세요. ARN을 기록합니다. 자세한 정보는 다음을 사용하여 스트림에 대한 액세스 권한을 부여합니다. AmazonRekognitionServiceRole 을 참조하세요.

  2. 모음을 만들고, 사용한 모음 식별자를 적어둡니다.

  3. 2단계에서 만든 모음에 검색하고자 하는 얼굴을 인덱싱합니다.

  4. Kinesis 비디오 스트림을 만들고 스트림의 Amazon 리소스 이름(ARN)을 적어둡니다.

  5. Kinesis 데이터 스트림을 생성합니다. 스트림 이름 앞에 를 추가하고 스트림의 ARN을 기록해 둡니다. AmazonRekognition

그 후 얼굴 검색 스트림 프로세서를 생성하고 선택한 스트림 프로세서 이름을 사용하여 스트림 프로세서를 시작할 수 있습니다.

참고

미디어를 Kinesis 비디오 스트림으로 수집할 수 있는지 확인한 다음에 스트림 프로세서를 시작해야 합니다.

Amazon Rekognition Video로 비디오 스트리밍

Amazon Rekognition Video로 비디오를 스트리밍하려면 Amazon Kinesis Video Streams SDK를 사용하여 Kinesis 비디오 스트림을 생성하고 사용합니다. 이 PutMedia 작업은 Amazon Rekognition Video가 소비하는 Kinesis 비디오 스트림에 비디오 데이터 조각을 기록합니다. 각 비디오 데이터 조각의 길이는 일반적으로 2~10초이며 독립적인 비디오 프레임 시퀀스를 포함합니다. Amazon Rekognition Video는 H.264로 인코딩된 비디오를 지원하며, 이 비디오에는 세 가지 유형의 프레임(I, B, P)이 있을 수 있습니다. 자세한 내용은 Inter Frame을 참조하십시오. 조각의 첫 번째 프레임은 I 프레임이어야 합니다. I- 프레임은 다른 프레임과 별도로 디코딩될 수 있습니다.

비디오 데이터가 Kinesis 비디오 스트림에 도착하면 Kinesis Video Streams가 조각에 고유 번호를 할당합니다. 예제는 API 예제를 참조하십시오PutMedia .