Configurações de destino
Este tópico descreve as configurações de destino para o fluxo de entrega.
Tópicos
- Escolher o Amazon S3 como destino
- Escolher o Amazon Redshift como destino
- Escolher o OpenSearch Service como destino
- Escolher o OpenSearch Sem Servidor como destino
- Escolher o endpoint HTTP como destino
- Escolher o Datadog como destino
- Escolher o Honeycomb como destino
- Escolher o Coralogix como destino
- Escolher o Dynatrace como destino
- Escolher o LogicMonitor como destino
- Escolher o Logz.io como destino
- Escolher a MongoDB Cloud como destino
- Escolher o New Relic como destino
- Escolha o Splunk como seu destino
- Escolher a Splunk Observability Cloud como destino
- Escolher o Sumo Logic como destino
- Escolher o Elastic como destino
Escolher o Amazon S3 como destino
Você deve especificar as seguintes configurações para usar o Amazon S3 como destino para o fluxo de entrega do Kinesis Data Firehose:
-
Insira valores para os seguintes campos:
- S3 bucket
-
Escolha um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. É possível criar um novo bucket do S3 ou escolher um já existente.
- Prefixo de bucket do S3: opcional
-
Se você não habilitar o particionamento dinâmico, esse é um campo opcional. Se você escolher habilitar o particionamento dinâmico, deverá especificar um prefixo de bucket de erros do S3 para o Kinesis Data Firehose usar ao entregar dados para o Amazon S3 em condições de erro. Se o Kinesis Data Firehose não conseguir particionar dinamicamente os dados recebidos, esses registros de dados serão entregues a esse prefixo de bucket de erros do S3. Para obter mais informações, consulte Formato de nome de objeto do Amazon S3 e Prefixos personalizados para objetos do Amazon S3
- Particionamento dinâmico
-
Escolha Habilitado para habilitar e configurar o particionamento dinâmico.
- Desagregação de vários registros
-
Esse é o processo de analisar todos os registros no fluxo de entrega e separá-los com base no JSON válido ou no novo delimitador de linha especificado.
Se você agregar vários eventos, logs ou registros em uma única chamada de API PutRecord e PutRecordBatch, ainda poderá habilitar e configurar o particionamento dinâmico. Com dados agregados, quando você habilita o particionamento dinâmico, o Kinesis Data Firehose analisa os registros e procura vários objetos JSON válidos em cada chamada de API. Quando o fluxo de entrega é configurado com o Kinesis Data Stream como fonte, você também pode usar a agregação integrada na Kinesis Producer Library (KPL). A funcionalidade de partição de dados é executada após a desagregação dos dados. Portanto, cada registro em cada chamada de API pode ser entregue a diferentes prefixos do Amazon S3. Você também pode aproveitar a integração da função do Lambda para realizar qualquer outra desagregação ou qualquer outra transformação antes da funcionalidade de particionamento de dados.
Importante
Se os dados estiverem agregados, o particionamento dinâmico só poderá ser aplicado após a desagregação de dados ser realizada. Portanto, se você habilitar o particionamento dinâmico para seus dados agregados, deverá escolher Habilitado para habilitar a desagregação de vários registros.
O fluxo de entrega do Kinesis Data Firehose realiza as seguintes etapas de processamento nesta ordem: desagregação de KPL (protobuf), desagregação de JSON ou delimitador, processamento de Lambda, particionamento de dados, conversão de formato dos dados e entrega ao Amazon S3.
- Tipo de agregação de vários registros
-
Se você habilitou a desagregação de vários registros, deverá especificar o método a ser usado pelo Kinesis Data Firehose para desagregar os dados. Use o menu suspenso para escolher JSON ou Delimitado.
- Novo delimitador de linha
-
Ao habilitar o particionamento dinâmico, você pode configurar o fluxo de entrega para adicionar um novo delimitador de linha entre os registros nos objetos que são entregues ao Amazon S3. Para fazer isso, escolha Habilitado. Para não adicionar um novo delimitador de linha entre registros nos objetos que são entregues ao Amazon S3, escolha Desabilitado.
- Análise em linha
-
Esse é um dos mecanismos compatíveis com o particionamento dinâmico dos dados vinculados ao Amazon S3. Para usar a análise em linha para fazer o particionamento dinâmico de dados, você deve especificar os parâmetros de registro de dados a serem usados como chaves de particionamento e fornecer um valor para cada chave de particionamento especificada. Escolha Habilitado para habilitar e configurar o particionamento em linha.
Importante
Se você especificou uma função do AWS Lambda nas etapas acima para transformar os registros da fonte, poderá usar essa função para particionar dinamicamente os dados vinculados ao S3 e ainda poderá criar as chaves de particionamento com análise em linha. Com o particionamento dinâmico, você pode usar a análise em linha ou a função do AWS Lambda para criar as chaves de particionamento. Ou você pode usar a análise em linha e a função do AWS Lambda ao mesmo tempo para criar as chaves de particionamento.
- Chaves de particionamento dinâmico
-
Você pode usar os campos Chave e Valor para especificar os parâmetros de registro de dados a serem usados como chaves de particionamento dinâmico e consultas jq para gerar os valores das chaves de particionamento dinâmico. O Kinesis Data Firehose só é compatível com o jq 1.6. É possível especificar até 50 chaves de particionamento dinâmico. Você deve inserir expressões jq válidas para os valores de chave de particionamento dinâmico para configurar com êxito o particionamento dinâmico para o fluxo de entrega.
- Prefixo de bucket do S3
-
Ao habilitar e configurar o particionamento dinâmico, você deve especificar os prefixos de bucket do S3 para os quais o Kinesis Data Firehose deverá entregar os dados particionados.
Para que o particionamento dinâmico seja configurado corretamente, o número dos prefixos de bucket do S3 deve ser idêntico ao número de chaves de particionamento especificadas.
Você pode particionar os dados da fonte com análise em linha ou com a função do AWS Lambda especificada. Se você especificou uma função do AWS Lambda para criar chaves de particionamento para os dados da fonte, deverá digitar manualmente os valores dos prefixos de bucket do S3 usando o seguinte formato: “partitionKeyFromLambda:keyID”. Se for usar análise em linha para especificar as chaves de particionamento para os dados da fonte, você poderá digitar manualmente os valores de visualização de buckets do S3 usando o seguinte formato: "partitionKeyFromQuery:keyID" ou escolher o botão Aplicar chaves de particionamento dinâmico para usar os pares de chave/valor de particionamento dinâmico para gerar automaticamente os prefixos de bucket do S3. Ao particionar os dados com análise em linha ou com o AWS Lambda, você também pode usar os seguintes formulários de expressão no prefixo de bucket do S3: !{namespace:valor}, em que o namespace pode ser PartitionKeyFromQuery ou PartitionKeyFromLambda.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
- Compactações e criptografia do S3
-
Escolha a compactação de dados GZIP, Snappy, Zip ou Snappy compatível com Hadoop ou nenhuma compactação de dados. A compactação Snappy, Zip e Snappy compatível com Hadoop não está disponível para fluxos de entrega com o Amazon Redshift como destino.
O Kinesis Data Firehose é compatível com criptografia do lado do servidor do Amazon S3 com o AWS Key Management Service (AWS KMS) para criptografar os dados entregues no Amazon S3. Você pode escolher não criptografar os dados ou criptografá-los com uma chave da lista de chaves da AWS que você possui. Para obter mais informações, consulte Protecting Data Using Server-Side Encryption with AWS KMS-Managed Keys (SSE-KMS).
Escolher o Amazon Redshift como destino
Esta seção descreve as configurações para usar o Amazon Redshift como destino do fluxo de entrega.
Escolha um dos procedimentos a seguir dependendo de você ter um cluster provisionado pelo Amazon Redshift ou um grupo de trabalho do Amazon Redshift Sem Servidor.
Cluster provisionado do Amazon Redshift
Esta seção descreve as configurações para usar o cluster provisionado do Amazon Redshift como destino do fluxo de entrega.
-
Insira valores para os seguintes campos:
- Cluster
-
O cluster do Amazon Redshift no qual os dados do bucket do S3 são copiados. Configure o cluster do Amazon Redshift para que esteja acessível publicamente e desbloqueie os endereços IP do Kinesis Data Firehose IP. Para obter mais informações, consulte Conceder acesso ao Kinesis Data Firehose a um destino do Amazon Redshift .
- User name
-
Um usuário do Amazon Redshift que tem permissões para acessar o cluster do Amazon Redshift. Esse usuário deve ter a permissão
INSERT
do Amazon Redshift para copiar dados do bucket do S3 no cluster do Amazon Redshift. - Password
-
A senha do usuário que tem permissões para acessar o cluster.
- Database
-
O banco de dados do Amazon Redshift no qual os dados são copiados.
- Tabela
-
A tabela do Amazon Redshift no qual os dados são copiados.
- Columns
-
(Opcional) As colunas específicas da tabela na qual os dados serão copiados. Use essa opção se o número de colunas definidas nos objetos do Amazon S3 for menor que o número de colunas na tabela do Amazon Redshift.
- Destino intermediário do S3
-
O Kinesis Data Firehose entrega os dados ao bucket do S3 primeiro e, em seguida, emite um comando COPY do Amazon Redshift para carregar os dados no cluster do Amazon Redshift. Especifique um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. Crie um novo bucket do S3 ou escolha um bucket já existente do qual você seja proprietário.
O Kinesis Data Firehose não exclui os dados do bucket do S3 depois de carregá-los no cluster do Amazon Redshift. Você pode gerenciar os dados no bucket do S3 usando uma configuração de ciclo de vida. Para obter mais informações, consulte Gerenciamento do ciclo de vida de objetos no Guia do usuário do Amazon Simple Storage Service.
- Prefixo de bucket intermediário do S3
-
(Opcional) Para usar o prefixo padrão para objetos do Amazon S3, deixe esta opção em branco. O Kinesis Data Firehose usa automaticamente um prefixo no formato de hora UTC "
YYYY/MM/dd/HH
" para objetos entregues ao Amazon S3. Você pode adicionar ao início deste prefixo. Para obter mais informações, consulte Formato de nome de objeto do Amazon S3. - Opções do COPY
-
Parâmetros que você pode especificar no comando COPY do Amazon Redshift. Eles podem ser necessários para a configuração. Por exemplo, "
GZIP
" será necessário se a compactação de dados do Amazon S3 estiver habilitada. "REGION
" será necessário se o bucket do S3 não estiver na mesma região da AWS que o cluster do Amazon Redshift. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift. - COPY command
-
O comando COPY do Amazon Redshift. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.
- Período de novas tentativas
-
Tempo de duração (0 a 7.200 segundos) para o Kinesis Data Firehose fazer nova tentativa se o comando COPY dos dados no cluster do Amazon Redshift falhar. O Kinesis Data Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Kinesis Data Firehose não fará novas tentativas após uma falha no comando COPY.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
- Compactações e criptografia do S3
-
Escolha GZIP ou nenhuma compressão de dados.
O Kinesis Data Firehose é compatível com criptografia do lado do servidor do Amazon S3 com o AWS Key Management Service (AWS KMS) para criptografar os dados entregues no Amazon S3. Você pode escolher não criptografar os dados ou criptografá-los com uma chave da lista de chaves da AWS que você possui. Para obter mais informações, consulte Protecting Data Using Server-Side Encryption with AWS KMS-Managed Keys (SSE-KMS).
Grupo de trabalho do Amazon Redshift Sem Servidor
Esta seção descreve as configurações para usar o grupo de trabalho Amazon Redshift Sem Servidor como destino do fluxo de entrega.
-
Insira valores para os seguintes campos:
- Workgroup name (Nome do grupo de trabalho)
-
O grupo de trabalho do Amazon Redshift Sem Servidor ou um grupo de trabalho do Amazon Redshift no qual os dados do bucket do S3 são copiados. Configure o grupo de trabalho do Amazon Redshift Sem Servidor para ser acessível publicamente e desbloquear os endereços IP do Kinesis Data Firehose. Para obter mais informações, consulte a seção Conectar-se a uma instância do Amazon Redshift Sem Servidor acessível publicamente em Conectar-se ao Amazon Redshift Sem Servidor e também Conceder acesso ao Kinesis Data Firehose a um destino do Amazon Redshift .
- User name
-
Um usuário do Amazon Redshift com permissões para acessar o grupo de trabalho do Amazon Redshift Sem Servidor. Esse usuário deve ter a permissão
INSERT
do Amazon Redshift para copiar dados do bucket do S3 para o grupo de trabalho do Amazon Redshift Sem Servidor. - Password
-
A senha do usuário que tem permissões para acessar o grupo de trabalho do Amazon Redshift Sem Servidor.
- Database
-
O banco de dados do Amazon Redshift no qual os dados são copiados.
- Tabela
-
A tabela do Amazon Redshift no qual os dados são copiados.
- Columns
-
(Opcional) As colunas específicas da tabela na qual os dados serão copiados. Use essa opção se o número de colunas definidas nos objetos do Amazon S3 for menor que o número de colunas na tabela do Amazon Redshift.
- Destino intermediário do S3
-
O Kinesis Data Firehose entrega os dados ao bucket do S3 primeiro e, em seguida, emite um comando COPY do Amazon Redshift para carregar os dados no grupo de trabalho do Amazon Redshift Sem Servidor. Especifique um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. Crie um novo bucket do S3 ou escolha um bucket já existente do qual você seja proprietário.
O Kinesis Data Firehose não exclui os dados do bucket do S3 depois de carregá-los no grupo de trabalho do Amazon Redshift Sem Servidor. Você pode gerenciar os dados no bucket do S3 usando uma configuração de ciclo de vida. Para obter mais informações, consulte Gerenciamento do ciclo de vida de objetos no Guia do usuário do Amazon Simple Storage Service.
- Prefixo de bucket intermediário do S3
-
(Opcional) Para usar o prefixo padrão para objetos do Amazon S3, deixe esta opção em branco. O Kinesis Data Firehose usa automaticamente um prefixo no formato de hora UTC "
YYYY/MM/dd/HH
" para objetos entregues ao Amazon S3. Você pode adicionar ao início deste prefixo. Para obter mais informações, consulte Formato de nome de objeto do Amazon S3. - Opções do COPY
-
Parâmetros que você pode especificar no comando COPY do Amazon Redshift. Eles podem ser necessários para a configuração. Por exemplo, "
GZIP
" será necessário se a compactação de dados do Amazon S3 estiver habilitada. "REGION
" será necessário se o bucket do S3 não estiver na mesma região da AWS que o grupo de trabalho do Amazon Redshift Sem Servidor. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift. - COPY command
-
O comando COPY do Amazon Redshift. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.
- Período de novas tentativas
-
Tempo de duração (0 a 7.200 segundos) para o Kinesis Data Firehose fazer nova tentativa se o comando COPY dos dados no grupo de trabalho do Amazon Redshift Sem Servidor falhar. O Kinesis Data Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Kinesis Data Firehose não fará novas tentativas após uma falha no comando COPY.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
- Compactações e criptografia do S3
-
Escolha GZIP ou nenhuma compressão de dados.
O Kinesis Data Firehose é compatível com criptografia do lado do servidor do Amazon S3 com o AWS Key Management Service (AWS KMS) para criptografar os dados entregues no Amazon S3. Você pode escolher não criptografar os dados ou criptografá-los com uma chave da lista de chaves da AWS que você possui. Para obter mais informações, consulte Protecting Data Using Server-Side Encryption with AWS KMS-Managed Keys (SSE-KMS).
Escolher o OpenSearch Service como destino
Esta seção descreve as opções para usar o OpenSearch Service como destino.
-
Insira valores para os seguintes campos:
- Domínio do OpenSearch Service
-
O domínio do OpenSearch Service ao qual os dados serão entregues.
- Índice
-
O nome do índice do OpenSearch Service a ser usado ao indexar dados no cluster do OpenSearch Service.
- Index rotation
-
Escolha se deve feito o rodízio de índices do OpenSearch Service e com que frequência. Se a rodízio de índices estiver habilitado, o Kinesis Data Firehose adicionará o timestamp correspondente ao nome de índice especificado e fará o rodízio. Para obter mais informações, consulte Rodízio de índices para o destino do OpenSearch Service.
- Type
-
O nome do tipo de OpenSearch Service a ser usado ao indexar dados no cluster do OpenSearch Service. Para o Elasticsearch 7.x e o OpenSearch 1.x, só pode haver um tipo por índice. Se você tentar especificar um novo tipo para um índice existente que já tem outro tipo, o Kinesis Data Firehose retornará um erro durante o runtime.
Para o Elasticsearch 7.x, deixe esse campo vazio.
- Período de novas tentativas
-
Período (0 a 7,200 segundos) durante o qual o Kinesis Data Firehose fará novas tentativas se uma solicitação de índice ao cluster do OpenSearch Service falhar. O Kinesis Data Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Kinesis Data Firehose não fará novas tentativas após uma falha na solicitação de índice.
- Tipo DocumentID
-
Indica o método para configurar o ID do documento. Os métodos compatíveis são ID do documento gerado pelo Kinesis Data Firehose e ID do documento gerado pelo OpenSearch Service. ID do documento gerado pelo Kinesis Data Firehose é a opção padrão quando o valor do ID do documento não está definido. O ID do documento gerado pelo OpenSearch Service é a opção recomendada porque é compatível com operações de gravação intensiva, inclusive análise de log e observabilidade, consumindo menos recursos de CPU no domínio do OpenSearch Service e, portanto, resultando em melhor performance.
- Destination VPC connectivity (Conectividade da VPC de destino)
-
Se o domínio do OpenSearch Service estiver em uma VPC privada, use esta seção para especificar essa VPC. Especifique também as sub-redes e os subgrupos que deseja que o Kinesis Data Firehose use ao enviar dados para o domínio do OpenSearch Service. Você pode usar os mesmos grupos de segurança que o domínio do OpenSearch Service está usando. Se você especificar outros grupos de segurança, certifique-se de que permitam tráfego HTTPS de saída para o grupo de segurança do domínio do OpenSearch Service. Certifique-se também de que o grupo de segurança do domínio do OpenSearch Service permita o tráfego HTTPS dos grupos de segurança que você especificou ao configurar o fluxo de entrega. Se você utilizar o mesmo grupo de segurança para o fluxo de entrega e para o domínio do OpenSearch Service, certifique-se de que a regra de entrada do grupo de segurança permita o tráfego HTTPS. Para obter mais informações sobre regras de grupo de segurança, consulte Regras de grupo de segurança na documentação da Amazon VPC.
- Sugestões de buffer
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolher o OpenSearch Sem Servidor como destino
Esta seção descreve as opções para usar o OpenSearch Sem Servidor como destino.
-
Insira valores para os seguintes campos:
- Coleção do OpenSearch Sem Servidor
-
O endpoint para um grupo de índices OpenSearch Sem Servidor ao qual os dados são entregues.
- Índice
-
O nome do índice do OpenSearch Sem Servidor a ser usado ao indexar dados para a coleção OpenSearch Sem Servidor.
- Destination VPC connectivity (Conectividade da VPC de destino)
-
Se a coleção do OpenSearch Sem Servidor estiver em uma VPC privada, use esta seção para especificar essa VPC. Especifique também as sub-redes e subgrupos que você deseja que o Kinesis Data Firehose use quando enviar dados para a coleção do OpenSearch Sem Servidor.
- Período de novas tentativas
-
Período (0 a 7.200 segundos) durante o qual o Kinesis Data Firehose fará novas tentativas se uma solicitação de índice à coleção do OpenSearch Sem Servidor falhar. O Kinesis Data Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Kinesis Data Firehose não fará novas tentativas após uma falha na solicitação de índice.
- Sugestões de buffer
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolher o endpoint HTTP como destino
Esta seção descreve as opções para usar o endpoint HTTP como destino.
Importante
Se você escolher um endpoint HTTP como destino, revise e siga as instruções em Apêndice - Especificações de solicitação e resposta de entrega de endpoint HTTP.
-
Forneça os valores para os seguintes campos:
- Nome do endpoint HTTP - opcional
-
Especifique um nome de usuário amigável para o endpoint HTTP. Por exemplo,
My HTTP Endpoint Destination
. - URL do endpoint HTTP
-
Especifique a URL para o endpoint HTTP no seguinte formato:
https://xyz.httpendpoint.com
. A origem deve ser uma URL HTTPS. - Chave de acesso - opcional
-
Entre em contato com o proprietário do endpoint para obter a chave de acesso (se for exigida) para permitir a entrega de dados do Kinesis Data Firehose ao endpoint.
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Importante
Para destinos de endpoint HTTP, se você estiver vendo códigos de resposta 413 do endpoint de destino no CloudWatch Logs, reduza o tamanho da sugestão de buffer no fluxo de entrega e tente novamente.
Escolher o Datadog como destino
Esta seção descreve as opções para usar o Datadog como destino. Para obter mais informações sobre o Datadog, consulte https://docs.datadoghq.com/integrations/amazon_web_services/
-
Forneça os valores para os seguintes campos:
- URL do endpoint HTTP
-
Escolha o URL do endpoint HTTP entre as seguintes opções no menu suspenso:
-
Logs do Datadog - EUA1
-
Logs do Datadog - EUA5
-
Logs do Datadog: EU
-
Logs do Datadog: GOV
-
Métricas do Datadog - EUA
-
Métricas do Datadog: EU
-
- Chave de API
-
Entre em contato com a Datadog para obter a chave de API necessária para permitir a entrega de dados do Kinesis Data Firehose a esse endpoint.
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolher o Honeycomb como destino
Esta seção descreve as opções para usar o Honeycomb como destino. Para obter mais informações sobre o Honeycomb, consulte https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/
-
Forneça os valores para os seguintes campos:
- Endpoint do Honeycomb Kinesis
-
Especifique o URL do endpoint HTTP no seguinte formato: hhttps://api.honeycomb.io/1/kinesis_events/{{dataset}}
- Chave de API
-
Entre em contato com a Honeycomb para obter a chave de API necessária para permitir a entrega de dados do Kinesis Data Firehose a esse endpoint.
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP para habilitar a codificação de conteúdo da solicitação. Essa é a opção recomendada quando o destino é o Honeycomb.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolher o Coralogix como destino
Esta seção descreve as opções para usar o Coralogix como destino. Para obter mais informações sobre o Coralogix, consulte https://coralogix.com/integrations/aws-firehose.
-
Forneça os valores para os seguintes campos:
- URL do endpoint HTTP
-
Escolha o URL do endpoint HTTP entre as seguintes opções no menu suspenso:
-
Coralogix - EUA
-
Coralogix - SINGAPURA
-
Coralogix - IRLANDA
-
Coralogix - ÍNDIA
-
Coralogix - ESTOCOLMO
-
- Chave privada
-
Entre em contato com a Coralogix para obter a chave privada necessária para permitir a entrega de dados do Kinesis Data Firehose a esse endpoint.
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP para habilitar a codificação de conteúdo da solicitação. Essa é a opção recomendada quando o destino é o Coralogix.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
-
applicationName: o ambiente em que você está executando o Data Firehose
-
subsystemName: o nome da integração do Data Firehose
-
computerName: o nome do fluxo de entrega em uso
-
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolher o Dynatrace como destino
Esta seção descreve as opções para usar o Dynatrace como destino. Para obter mais informações, consulte https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/
-
Forneça os valores para os seguintes campos:
- URL do endpoint HTTP
-
Escolha a URL do endpoint HTTP (Dynatrace EUA, Dynatrace UE ou Dynatrace Global) no menu suspenso.
- Token de API
-
Gere o token de API do Dynatrace exigido para a entrega de dados do Kinesis Data Firehose. Para obter mais informações, consulte https://www.dynatrace.com/support/help/dynatrace-api/basics/dynatrace-api-authentication/
. - URL da API
-
Forneça o URL da API do ambiente do Dynatrace.
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
Importante
Ao usar o Dynatrace como o destino especificado, você deve especificar pelo menos um par de valor-chave de parâmetro. Você deve nomear essa chave
dt-url
e definir seu valor como o URL do ambiente do Dynatrace (por exemplo,https://xyzab123456.dynatrace.live.com
). Depois, você tem a opção de especificar pares de valores-chave de parâmetros adicionais e defini-los com nomes e valores personalizados de sua escolha. - Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolher o LogicMonitor como destino
Esta seção descreve as opções para usar o LogicMonitor como destino. Para obter mais informações, consulte https://www.logicmonitor.com
-
Forneça os valores para os seguintes campos:
- URL do endpoint HTTP
-
Especifique um URL para o endpoint HTTP no seguinte formato: https://ACCOUNT.logicmonitor.com
- Chave de API
-
Entre em contato com o LogicMonitor para obter a chave de API necessária para habilitar a entrega de dados para esse endpoint do Kinesis Data Firehose.
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolher o Logz.io como destino
Esta seção descreve as opções para usar o Logz.io como destino. Para obter mais informações, consulte https://logz.io/
nota
Na região da Europa (Milão), o Logz.io não é aceito destino do Amazon Kinesis Data Firehose.
-
Forneça os valores para os seguintes campos:
- URL do endpoint HTTP
-
Especifique a URL para o endpoint HTTP no seguinte formato:
https://listener-aws-metrics-stream-<region>.logz.io/
. Por exemplo,https://listener-aws-metrics-stream-us.logz.io/
. A origem deve ser uma URL HTTPS. - Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao Logz.io.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolher a MongoDB Cloud como destino
Esta seção descreve as opções para usar a MongoDB Cloud como destino. Para obter mais informações, consulte https://www.mongodb.com
-
Forneça os valores para os seguintes campos:
- URL do webhook Realm do MongoDB
-
Especifique a URL para o endpoint HTTP no seguinte formato:
https://webhooks.mongodb-realm.com
. A origem deve ser uma URL HTTPS. - Chave de API
-
Entre em contato com a MongoDB Cloud para obter a chave de API necessária para habilitar a entrega de dados para esse endpoint do Kinesis Data Firehose.
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao provedor terceirizado selecionado.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
Escolher o New Relic como destino
Esta seção descreve as opções para usar o New Relic como destino. Para obter mais informações, consulte https://newrelic.com
-
Forneça os valores para os seguintes campos:
- URL do endpoint HTTP
-
Escolha o URL do endpoint HTTP entre as seguintes opções no menu suspenso:
-
Logs do New Relic - EUA
-
Métricas do New Relic - EUA
-
Métricas do New Relic - UE
-
- Chave de API
-
Insira sua chave de licença (sequência hexadecimal de 40 caracteres) nas configurações da conta do New Relic One. Essa chave de API é necessária para permitir a entrega de dados do Kinesis Data Firehose a esse endpoint.
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados do Kinesis Data Firehose ao endpoint HTTP do New Relic.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolha o Splunk como seu destino
Esta seção descreve as opções para usar o Splunk como destino.
-
Forneça os valores para os seguintes campos:
- Splunk cluster endpoint
-
Para determinar o endpoint, consulte Configurar o Amazon Kinesis Firehose para enviar dados para a plataforma do Splunk
na documentação do Splunk. - Splunk endpoint type
-
Escolha
Raw endpoint
na maioria dos casos. SelecioneEvent endpoint
se você pré-processou seus dados usando o AWS Lambda para enviar dados para diferentes índices por tipo de evento. Para obter informações sobre qual endpoint usar, consulte Configurar o Amazon Kinesis Firehose para enviar dados para a plataforma Splunkna documentação do Splunk. - Token de autenticação
-
Para configurar um endpoint do Splunk que possa receber dados do Kinesis Data Firehose, consulte Installation and configuration overview for the Splunk Add-on for Amazon Kinesis Firehose
na documentação do Splunk. Salve o token que você obtiver do Splunk quando configurar o endpoint para esse fluxo de entrega e adicione-lo aqui. - HEC acknowledgement timeout
-
Especifique quanto tempo o Kinesis Data Firehose aguarda a confirmação do índice do Splunk. Se o Splunk não enviar a confirmação antes de o tempo limite ser atingido, o Kinesis Data Firehose considerará que houve uma falha na entrega de dados. Depois, o Kinesis Data Firehose fará uma nova tentativa ou fará o backup dos dados no bucket do Amazon S3, dependendo do valor do período de novas tentativas que você definir.
- Período de novas tentativas
-
Especifique por quanto o tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao Splunk.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do Splunk. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o Splunk (seja uma tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do Splunk.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
Escolher a Splunk Observability Cloud como destino
Esta seção descreve as opções para usar a Splunk Observability Cloud como destino. Para obter mais informações, consulte https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api
-
Forneça os valores para os seguintes campos:
- URL do endpoint de ingestão na nuvem
-
Você pode encontrar o URL de ingestão de dados em tempo real da Splunk Observability Cloud em Profile > Organizations > Real-time Data Ingest Endpoint no console do Splunk Observability.
- Token de acesso
-
Copie seu token de acesso do Splunk Observability com o escopo de autorização de INGEST em Settings > Access Tokens no console do Splunk Observability
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.
Escolher o Sumo Logic como destino
Esta seção descreve as opções para usar o Sumo Logic como destino. Para obter mais informações, consulte https://www.sumologic.com
-
Forneça os valores para os seguintes campos:
- URL do endpoint HTTP
-
Especifique a URL para o endpoint HTTP no seguinte formato:
https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token
. A origem deve ser uma URL HTTPS. - Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao Sumo Logic.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino do Elastic varia de acordo com o provedor de serviços.
Escolher o Elastic como destino
Esta seção descreve as opções para usar o Elastic como destino.
-
Forneça os valores para os seguintes campos:
- URL do endpoint do Elastic
-
Especifique a URL para o endpoint HTTP no seguinte formato:
https://<cluster-id>.es.<region>.aws.elastic-cloud.com
. A origem deve ser uma URL HTTPS. - Chave de API
-
Entre em contato com o serviço Elastic para obter a chave de API necessária para permitir a entrega de dados do Kinesis Data Firehose a esse serviço.
- Codificação de conteúdo
-
O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP (que é o selecionado por padrão) ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.
- Período de novas tentativas
-
Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao Elastic.
Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.
Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.
Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.
Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.
- Parâmetros: opcional
-
O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.
- Sugestões de buffer do S3
-
O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado quando o destino é O Elastic é de 1 MiB.