Configurando seus recursos do Amazon Rekognition Video e do Amazon Kinesis - Amazon Rekognition

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Configurando seus recursos do Amazon Rekognition Video e do Amazon Kinesis

Os procedimentos a seguir descrevem as etapas que você executa para provisionar o stream de vídeo do Kinesis e outros recursos usados para reconhecer faces em um streaming de vídeo.

Pré-requisitos

Para executar esse procedimento, você precisa ter o AWS SDK for Java instalado. Para ter mais informações, consulte Comece a usar o Amazon Rekognition. O Conta da AWS que você usa deve ter permissões de acesso à API do Amazon Rekognition. Para obter mais informações, consulte Ações definidas pelo Amazon Rekognition no Guia do usuário do IAM.

Para reconhecer faces em um fluxo de vídeo (AWS SDK)
  1. Se você ainda não o fez, crie um perfil de serviço do IAM para dar ao Amazon Rekognition Video acesse aos seus streams de vídeo do Kinesis e aos seus streams de dados do Kinesis. Anote o ARN. Para ter mais informações, consulte Dando acesso a streams usando AmazonRekognitionServiceRole.

  2. Crie uma coleção e anote o identificador da coleção que você usou.

  3. Faça a indexação das faces que deseja pesquisar na coleção que você criou na etapa 2.

  4. Crie um stream de vídeo do Kinesis e anote o nome de recurso da Amazon (ARN) do stream.

  5. Crie um fluxo de dados do Kinesis. Prefixe o nome do stream AmazonRekognitione anote o ARN do stream.

Em seguida, você pode criar o processador de stream de pesquisa facial e iniciar o processador de stream usando o nome do processador de stream que você escolheu.

nota

Você deve iniciar o processador de stream somente depois de verificar se você pode ingerir mídia no stream de vídeo do Kinesis.

Streaming de vídeo para o Amazon Rekognition Video

Para transmitir vídeo para o Amazon Rekognition Video, você usa o SDK do Amazon Kinesis Video Streams para criar e usar um stream de vídeo do Kinesis. A operação PutMedia grava fragmentos de dados de vídeo em um stream de vídeo do Kinesis que o Amazon Rekognition Video consome. Cada fragmento de dados de vídeo geralmente tem de 2 a 10 segundos de duração e contém uma sequência independente de quadros de vídeo. O Amazon Rekognition Video oferece suporte a vídeos codificados em H.264, que podem ter três tipos de quadros (I, B e P). Para obter mais informações, consulte Inter Frame. O primeiro quadro no fragmento deve ser um I-frame. Um I-frame pode ser decodificado independentemente de qualquer outro quadro.

Quando os dados de vídeo chegam ao stream de vídeo do Kinesis, o Kinesis Video Streams atribui um número exclusivo ao fragmento. Para ver um exemplo, consulte Exemplo de PutMedia API.

  • Se você estiver transmitindo de uma fonte codificada em Matroska (MKV), use a PutMediaoperação para transmitir o vídeo de origem para o stream de vídeo do Kinesis que você criou. Para obter mais informações, consulte Exemplo de PutMedia API.

  • Se você estiver transmitindo da câmera de um dispositivo, consulte Streaming usando um plugin GStreamer.