

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Definição de configurações da fonte
<a name="configure-source"></a>

É possível definir as configurações da fonte com base na fonte escolhida para enviar informações para um fluxo do Firehose a partir do console. É possível definir as configurações da fonte do Amazon MSK e do Amazon Kinesis Data Streams como fonte. Não há configurações de fonte disponíveis para o Direct PUT como fonte.

# Definição de configurações de fonte para o Amazon MSK
<a name="writing-with-msk"></a>

Ao escolher o Amazon MSK para enviar informações para um fluxo do Firehose, será possível escolher entre clusters provisionados pelo MSK e clusters do MSK com tecnologia sem servidor. Em seguida, é possível usar o Firehose para ler dados facilmente de um determinado cluster e tópico Amazon MSK e carregá-los no destino do S3 especificado.

Na seção **Configurações da fonte** da página, forneça valores para os campos a seguir.

****Conectividade com o cluster do Amazon MSK****  
Escolha a opção **Agentes privados de bootstrap** (recomendado) ou **Agentes públicos de bootstrap** de acordo com a configuração do cluster. Os agentes de bootstrap são o que o cliente Apache Kafka usa como ponto de partida para se conectar ao cluster. Os agentes públicos de bootstrap destinam-se ao acesso do público externo à AWS, enquanto os agentes privados de bootstrap destinam-se ao acesso de dentro da AWS. Para obter mais informações sobre o Amazon MSK, consulte [Amazon Managed Streaming for Apache Kafka](https://docs.aws.amazon.com/msk/latest/developerguide/what-is-msk.html).   
Para se conectar a um cluster do Amazon MSK provisionado ou sem servidor por meio de agentes privados de bootstrap, o cluster deve atender a todos os requisitos a seguir.  
+ O cluster deve estar ativo.
+ O cluster deve ter o IAM como um dos métodos de controle de acesso.
+ A conectividade privada de várias VPCs deve estar habilitada para o método de controle de acesso do IAM.
+ Você deve adicionar a esse cluster uma política baseada em recursos que conceda à entidade principal do serviço do Firehose permissão de invocar a operação de API `CreateVpcConnection` do Amazon MSK.
Para se conectar a um cluster do Amazon MSK provisionado por meio de agentes de bootstrap públicos, o cluster deve atender a todos os requisitos a seguir.  
+ O cluster deve estar ativo.
+ O cluster deve ter o IAM como um dos métodos de controle de acesso.
+ O cluster deve ser acessível ao público.

****Conta do cluster do MSK****  
É possível escolher a conta em que o cluster do Amazon MSK reside. Ela pode ser uma das opções a seguir.  
+ **Conta atual**: permite que você consuma dados de um cluster MSK na conta atual da AWS. Para isso, você deve especificar o ARN do cluster do Amazon MSK no qual o fluxo do Firehose lerá os dados.
+ **Entre contas**: permite que você consuma dados de um cluster MSK em outra conta da AWS. Para obter mais informações, consulte [Entrega entre contas do Amazon MSK](controlling-access.md#cross-account-delivery-msk).

****Tópico****  
Especifique o tópico do Apache Kafka do qual você deseja que fluxo do Firehose ingira os dados. Você não pode atualizar este tópico após a conclusão da criação do fluxo do Firehose.  
O Firehose descompacta automaticamente as mensagens do Apache Kafka.

# Definição de configurações de fonte para o Amazon Kinesis Data Streams
<a name="writing-with-kinesis-streams"></a>

Defina as configurações de fonte do Amazon Kinesis Data Streams para enviar informações para um fluxo do Firehose da forma a seguir.

**Importante**  
Ao usar a Kinesis Producer Library (KPL) para gravar dados em um fluxo de dados do Kinesis, é possível usar agregação para combinar os registros gravados. Ao usar esse fluxo de dados como fonte para seu fluxo do Firehose, o Amazon Data Firehose desagregará os registros antes de entregá-los ao destino. Se você configurar seu fluxo do Firehose transformar os dados, o Amazon Data Firehose desagregará os registros antes de entregá-los ao AWS Lambda. Para obter mais informações, consulte [Developing Amazon Kinesis Data Streams Producers Using the Kinesis Producer Library](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html) e [Aggregation](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation).

Em **Configurações de fonte**, escolha um fluxo existente na lista **Fluxo de dados do Kinesis** ou insira um ARN de fluxo de dados no formato `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]`.

Se não houver um fluxo de dados existente, escolha **Criar** para criar um novo no console do Amazon Kinesis Data Streams. Talvez você precise de um perfil do IAM que tenha a permissão necessária no fluxo do Kinesis. Para obter mais informações, consulte [Concessão ao Firehose de acesso a um destino do Amazon S3](controlling-access.md#using-iam-s3). Após criar um novo ´fluxo, selecione o ícone de atualização para atualizar a lista **Fluxo do Kinesis**. Se você tiver um grande número de fluxos, filtre a lista com a opção **Filter by name**. 

**nota**  
Quando um fluxo de dados do Kinesis é configurado como a fonte de um fluxo do Firehose, as operações `PutRecord` e `PutRecordBatch` do Amazon Data Firehose são desabilitadas. Para adicionar dados ao seu fluxo do Firehose nesse caso, use as operações `PutRecord` e `PutRecords` do Kinesis Data Streams.

O Amazon Data Firehose começa a ler os dados a partir da posição `LATEST` do seu fluxo do Kinesis. Para obter mais informações sobre as posições do Kinesis Data Streams, consulte [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html).

 O amazon Data Firehose chama a operação [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html) do Kinesis Data Streams uma vez por segundo para cada fragmento. Entretanto, quando o backup completo está ativado, o Firehose chama a operação `GetRecords` do Kinesis Data Streams duas vezes por segundo para cada fragmento, uma para o destino de entrega principal e outra para o backup completo.

Mais de um fluxo do Firehose podem ler o mesmo fluxo do Kinesis. Outras aplicações do Kinesis (consumidores) também podem ler o mesmo fluxo. Cada chamada de qualquer fluxo do Firehose ou de outra aplicação consumidora conta em relação ao limite total do controle de utilização para o fragmento. Para evitar a limitação, planeje suas aplicações cuidadosamente. Para obter mais informações sobre os limites do Kinesis Data Streams, consulte [Limites do Amazon Kinesis Data Streams](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html). 

Vá para a próxima etapa para configurar a transformação do registro e a conversão de formato.