Configurações de destino - Amazon Kinesis Data Firehose

Configurações de destino

Este tópico descreve as configurações de destino para o fluxo de entrega.

Escolher o Amazon S3 como destino

Você deve especificar as seguintes configurações para usar o Amazon S3 como destino para o fluxo de entrega do Kinesis Data Firehose:

  • Insira valores para os seguintes campos:

    S3 bucket

    Escolha um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. É possível criar um novo bucket do S3 ou escolher um já existente.

    Prefixo de bucket do S3: opcional

    Se você não habilitar o particionamento dinâmico, esse é um campo opcional. Se você escolher habilitar o particionamento dinâmico, deverá especificar um prefixo de bucket de erros do S3 para o Kinesis Data Firehose usar ao entregar dados para o Amazon S3 em condições de erro. Se o Kinesis Data Firehose não conseguir particionar dinamicamente os dados recebidos, esses registros de dados serão entregues a esse prefixo de bucket de erros do S3. Para obter mais informações, consulte Formato de nome de objeto do Amazon S3 e Prefixos personalizados para objetos do Amazon S3

    Particionamento dinâmico

    Escolha Habilitado para habilitar e configurar o particionamento dinâmico.

    Desagregação de vários registros

    Esse é o processo de analisar todos os registros no fluxo de entrega e separá-los com base no JSON válido ou no novo delimitador de linha especificado.

    Se você agregar vários eventos, logs ou registros em uma única chamada de API PutRecord e PutRecordBatch, ainda poderá habilitar e configurar o particionamento dinâmico. Com dados agregados, quando você habilita o particionamento dinâmico, o Kinesis Data Firehose analisa os registros e procura vários objetos JSON válidos em cada chamada de API. Quando o fluxo de entrega é configurado com o Kinesis Data Stream como fonte, você também pode usar a agregação integrada na Kinesis Producer Library (KPL). A funcionalidade de partição de dados é executada após a desagregação dos dados. Portanto, cada registro em cada chamada de API pode ser entregue a diferentes prefixos do Amazon S3. Você também pode aproveitar a integração da função do Lambda para realizar qualquer outra desagregação ou qualquer outra transformação antes da funcionalidade de particionamento de dados.

    Importante

    Se os dados estiverem agregados, o particionamento dinâmico só poderá ser aplicado após a desagregação de dados ser realizada. Portanto, se você habilitar o particionamento dinâmico para seus dados agregados, deverá escolher Habilitado para habilitar a desagregação de vários registros.

    O fluxo de entrega do Kinesis Data Firehose realiza as seguintes etapas de processamento nesta ordem: desagregação de KPL (protobuf), desagregação de JSON ou delimitador, processamento de Lambda, particionamento de dados, conversão de formato dos dados e entrega ao Amazon S3.

    Tipo de agregação de vários registros

    Se você habilitou a desagregação de vários registros, deverá especificar o método a ser usado pelo Kinesis Data Firehose para desagregar os dados. Use o menu suspenso para escolher JSON ou Delimitado.

    Novo delimitador de linha

    Ao habilitar o particionamento dinâmico, você pode configurar o fluxo de entrega para adicionar um novo delimitador de linha entre os registros nos objetos que são entregues ao Amazon S3. Para fazer isso, escolha Habilitado. Para não adicionar um novo delimitador de linha entre registros nos objetos que são entregues ao Amazon S3, escolha Desabilitado.

    Análise em linha

    Esse é um dos mecanismos compatíveis com o particionamento dinâmico dos dados vinculados ao Amazon S3. Para usar a análise em linha para fazer o particionamento dinâmico de dados, você deve especificar os parâmetros de registro de dados a serem usados como chaves de particionamento e fornecer um valor para cada chave de particionamento especificada. Escolha Habilitado para habilitar e configurar o particionamento em linha.

    Importante

    Se você especificou uma função do AWS Lambda nas etapas acima para transformar os registros da fonte, poderá usar essa função para particionar dinamicamente os dados vinculados ao S3 e ainda poderá criar as chaves de particionamento com análise em linha. Com o particionamento dinâmico, você pode usar a análise em linha ou a função do AWS Lambda para criar as chaves de particionamento. Ou você pode usar a análise em linha e a função do AWS Lambda ao mesmo tempo para criar as chaves de particionamento.

    Chaves de particionamento dinâmico

    Você pode usar os campos Chave e Valor para especificar os parâmetros de registro de dados a serem usados como chaves de particionamento dinâmico e consultas jq para gerar os valores das chaves de particionamento dinâmico. O Kinesis Data Firehose só é compatível com o jq 1.6. É possível especificar até 50 chaves de particionamento dinâmico. Você deve inserir expressões jq válidas para os valores de chave de particionamento dinâmico para configurar com êxito o particionamento dinâmico para o fluxo de entrega.

    Prefixo de bucket do S3

    Ao habilitar e configurar o particionamento dinâmico, você deve especificar os prefixos de bucket do S3 para os quais o Kinesis Data Firehose deverá entregar os dados particionados.

    Para que o particionamento dinâmico seja configurado corretamente, o número dos prefixos de bucket do S3 deve ser idêntico ao número de chaves de particionamento especificadas.

    Você pode particionar os dados da fonte com análise em linha ou com a função do AWS Lambda especificada. Se você especificou uma função do AWS Lambda para criar chaves de particionamento para os dados da fonte, deverá digitar manualmente os valores dos prefixos de bucket do S3 usando o seguinte formato: “partitionKeyFromLambda:keyID”. Se for usar análise em linha para especificar as chaves de particionamento para os dados da fonte, você poderá digitar manualmente os valores de visualização de buckets do S3 usando o seguinte formato: "partitionKeyFromQuery:keyID" ou escolher o botão Aplicar chaves de particionamento dinâmico para usar os pares de chave/valor de particionamento dinâmico para gerar automaticamente os prefixos de bucket do S3. Ao particionar os dados com análise em linha ou com o AWS Lambda, você também pode usar os seguintes formulários de expressão no prefixo de bucket do S3: !{namespace:valor}, em que o namespace pode ser PartitionKeyFromQuery ou PartitionKeyFromLambda.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Compactações e criptografia do S3

    Escolha a compactação de dados GZIP, Snappy, Zip ou Snappy compatível com Hadoop ou nenhuma compactação de dados. A compactação Snappy, Zip e Snappy compatível com Hadoop não está disponível para fluxos de entrega com o Amazon Redshift como destino.

    O Kinesis Data Firehose é compatível com criptografia do lado do servidor do Amazon S3 com o AWS Key Management Service (AWS KMS) para criptografar os dados entregues no Amazon S3. Você pode escolher não criptografar os dados ou criptografá-los com uma chave da lista de chaves da AWS que você possui. Para obter mais informações, consulte Protecting Data Using Server-Side Encryption with AWS KMS-Managed Keys (SSE-KMS).

Escolher o Amazon Redshift como destino

Esta seção descreve as configurações para usar o Amazon Redshift como destino do fluxo de entrega.

Escolha um dos procedimentos a seguir dependendo de você ter um cluster provisionado pelo Amazon Redshift ou um grupo de trabalho do Amazon Redshift Sem Servidor.

Cluster provisionado do Amazon Redshift

Esta seção descreve as configurações para usar o cluster provisionado do Amazon Redshift como destino do fluxo de entrega.

  • Insira valores para os seguintes campos:

    Cluster

    O cluster do Amazon Redshift no qual os dados do bucket do S3 são copiados. Configure o cluster do Amazon Redshift para que esteja acessível publicamente e desbloqueie os endereços IP do Kinesis Data Firehose IP. Para obter mais informações, consulte Conceder acesso ao Kinesis Data Firehose a um destino do Amazon Redshift .

    User name

    Um usuário do Amazon Redshift que tem permissões para acessar o cluster do Amazon Redshift. Esse usuário deve ter a permissão INSERT do Amazon Redshift para copiar dados do bucket do S3 no cluster do Amazon Redshift.

    Password

    A senha do usuário que tem permissões para acessar o cluster.

    Database

    O banco de dados do Amazon Redshift no qual os dados são copiados.

    Tabela

    A tabela do Amazon Redshift no qual os dados são copiados.

    Columns

    (Opcional) As colunas específicas da tabela na qual os dados serão copiados. Use essa opção se o número de colunas definidas nos objetos do Amazon S3 for menor que o número de colunas na tabela do Amazon Redshift.

    Destino intermediário do S3

    O Kinesis Data Firehose entrega os dados ao bucket do S3 primeiro e, em seguida, emite um comando COPY do Amazon Redshift para carregar os dados no cluster do Amazon Redshift. Especifique um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. Crie um novo bucket do S3 ou escolha um bucket já existente do qual você seja proprietário.

    O Kinesis Data Firehose não exclui os dados do bucket do S3 depois de carregá-los no cluster do Amazon Redshift. Você pode gerenciar os dados no bucket do S3 usando uma configuração de ciclo de vida. Para obter mais informações, consulte Gerenciamento do ciclo de vida de objetos no Guia do usuário do Amazon Simple Storage Service.

    Prefixo de bucket intermediário do S3

    (Opcional) Para usar o prefixo padrão para objetos do Amazon S3, deixe esta opção em branco. O Kinesis Data Firehose usa automaticamente um prefixo no formato de hora UTC "YYYY/MM/dd/HH" para objetos entregues ao Amazon S3. Você pode adicionar ao início deste prefixo. Para obter mais informações, consulte Formato de nome de objeto do Amazon S3.

    Opções do COPY

    Parâmetros que você pode especificar no comando COPY do Amazon Redshift. Eles podem ser necessários para a configuração. Por exemplo, "GZIP" será necessário se a compactação de dados do Amazon S3 estiver habilitada. "REGION" será necessário se o bucket do S3 não estiver na mesma região da AWS que o cluster do Amazon Redshift. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.

    COPY command

    O comando COPY do Amazon Redshift. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.

    Período de novas tentativas

    Tempo de duração (0 a 7.200 segundos) para o Kinesis Data Firehose fazer nova tentativa se o comando COPY dos dados no cluster do Amazon Redshift falhar. O Kinesis Data Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Kinesis Data Firehose não fará novas tentativas após uma falha no comando COPY.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Compactações e criptografia do S3

    Escolha GZIP ou nenhuma compressão de dados.

    O Kinesis Data Firehose é compatível com criptografia do lado do servidor do Amazon S3 com o AWS Key Management Service (AWS KMS) para criptografar os dados entregues no Amazon S3. Você pode escolher não criptografar os dados ou criptografá-los com uma chave da lista de chaves da AWS que você possui. Para obter mais informações, consulte Protecting Data Using Server-Side Encryption with AWS KMS-Managed Keys (SSE-KMS).

Grupo de trabalho do Amazon Redshift Sem Servidor

Esta seção descreve as configurações para usar o grupo de trabalho Amazon Redshift Sem Servidor como destino do fluxo de entrega.

  • Insira valores para os seguintes campos:

    Workgroup name (Nome do grupo de trabalho)

    O grupo de trabalho do Amazon Redshift Sem Servidor ou um grupo de trabalho do Amazon Redshift no qual os dados do bucket do S3 são copiados. Configure o grupo de trabalho do Amazon Redshift Sem Servidor para ser acessível publicamente e desbloquear os endereços IP do Kinesis Data Firehose. Para obter mais informações, consulte a seção Conectar-se a uma instância do Amazon Redshift Sem Servidor acessível publicamente em Conectar-se ao Amazon Redshift Sem Servidor e também Conceder acesso ao Kinesis Data Firehose a um destino do Amazon Redshift .

    User name

    Um usuário do Amazon Redshift com permissões para acessar o grupo de trabalho do Amazon Redshift Sem Servidor. Esse usuário deve ter a permissão INSERT do Amazon Redshift para copiar dados do bucket do S3 para o grupo de trabalho do Amazon Redshift Sem Servidor.

    Password

    A senha do usuário que tem permissões para acessar o grupo de trabalho do Amazon Redshift Sem Servidor.

    Database

    O banco de dados do Amazon Redshift no qual os dados são copiados.

    Tabela

    A tabela do Amazon Redshift no qual os dados são copiados.

    Columns

    (Opcional) As colunas específicas da tabela na qual os dados serão copiados. Use essa opção se o número de colunas definidas nos objetos do Amazon S3 for menor que o número de colunas na tabela do Amazon Redshift.

    Destino intermediário do S3

    O Kinesis Data Firehose entrega os dados ao bucket do S3 primeiro e, em seguida, emite um comando COPY do Amazon Redshift para carregar os dados no grupo de trabalho do Amazon Redshift Sem Servidor. Especifique um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. Crie um novo bucket do S3 ou escolha um bucket já existente do qual você seja proprietário.

    O Kinesis Data Firehose não exclui os dados do bucket do S3 depois de carregá-los no grupo de trabalho do Amazon Redshift Sem Servidor. Você pode gerenciar os dados no bucket do S3 usando uma configuração de ciclo de vida. Para obter mais informações, consulte Gerenciamento do ciclo de vida de objetos no Guia do usuário do Amazon Simple Storage Service.

    Prefixo de bucket intermediário do S3

    (Opcional) Para usar o prefixo padrão para objetos do Amazon S3, deixe esta opção em branco. O Kinesis Data Firehose usa automaticamente um prefixo no formato de hora UTC "YYYY/MM/dd/HH" para objetos entregues ao Amazon S3. Você pode adicionar ao início deste prefixo. Para obter mais informações, consulte Formato de nome de objeto do Amazon S3.

    Opções do COPY

    Parâmetros que você pode especificar no comando COPY do Amazon Redshift. Eles podem ser necessários para a configuração. Por exemplo, "GZIP" será necessário se a compactação de dados do Amazon S3 estiver habilitada. "REGION" será necessário se o bucket do S3 não estiver na mesma região da AWS que o grupo de trabalho do Amazon Redshift Sem Servidor. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.

    COPY command

    O comando COPY do Amazon Redshift. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.

    Período de novas tentativas

    Tempo de duração (0 a 7.200 segundos) para o Kinesis Data Firehose fazer nova tentativa se o comando COPY dos dados no grupo de trabalho do Amazon Redshift Sem Servidor falhar. O Kinesis Data Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Kinesis Data Firehose não fará novas tentativas após uma falha no comando COPY.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Compactações e criptografia do S3

    Escolha GZIP ou nenhuma compressão de dados.

    O Kinesis Data Firehose é compatível com criptografia do lado do servidor do Amazon S3 com o AWS Key Management Service (AWS KMS) para criptografar os dados entregues no Amazon S3. Você pode escolher não criptografar os dados ou criptografá-los com uma chave da lista de chaves da AWS que você possui. Para obter mais informações, consulte Protecting Data Using Server-Side Encryption with AWS KMS-Managed Keys (SSE-KMS).

Escolher o OpenSearch Service como destino

Esta seção descreve as opções para usar o OpenSearch Service como destino.

  • Insira valores para os seguintes campos:

    Domínio do OpenSearch Service

    O domínio do OpenSearch Service ao qual os dados serão entregues.

    Índice

    O nome do índice do OpenSearch Service a ser usado ao indexar dados no cluster do OpenSearch Service.

    Index rotation

    Escolha se deve feito o rodízio de índices do OpenSearch Service e com que frequência. Se a rodízio de índices estiver habilitado, o Kinesis Data Firehose adicionará o timestamp correspondente ao nome de índice especificado e fará o rodízio. Para obter mais informações, consulte Rodízio de índices para o destino do OpenSearch Service.

    Type

    O nome do tipo de OpenSearch Service a ser usado ao indexar dados no cluster do OpenSearch Service. Para o Elasticsearch 7.x e o OpenSearch 1.x, só pode haver um tipo por índice. Se você tentar especificar um novo tipo para um índice existente que já tem outro tipo, o Kinesis Data Firehose retornará um erro durante o runtime.

    Para o Elasticsearch 7.x, deixe esse campo vazio.

    Período de novas tentativas

    Período (0 a 7,200 segundos) durante o qual o Kinesis Data Firehose fará novas tentativas se uma solicitação de índice ao cluster do OpenSearch Service falhar. O Kinesis Data Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Kinesis Data Firehose não fará novas tentativas após uma falha na solicitação de índice.

    Tipo DocumentID

    Indica o método para configurar o ID do documento. Os métodos compatíveis são ID do documento gerado pelo Kinesis Data Firehose e ID do documento gerado pelo OpenSearch Service. ID do documento gerado pelo Kinesis Data Firehose é a opção padrão quando o valor do ID do documento não está definido. O ID do documento gerado pelo OpenSearch Service é a opção recomendada porque é compatível com operações de gravação intensiva, inclusive análise de log e observabilidade, consumindo menos recursos de CPU no domínio do OpenSearch Service e, portanto, resultando em melhor performance.

    Destination VPC connectivity (Conectividade da VPC de destino)

    Se o domínio do OpenSearch Service estiver em uma VPC privada, use esta seção para especificar essa VPC. Especifique também as sub-redes e os subgrupos que deseja que o Kinesis Data Firehose use ao enviar dados para o domínio do OpenSearch Service. Você pode usar os mesmos grupos de segurança que o domínio do OpenSearch Service está usando. Se você especificar outros grupos de segurança, certifique-se de que permitam tráfego HTTPS de saída para o grupo de segurança do domínio do OpenSearch Service. Certifique-se também de que o grupo de segurança do domínio do OpenSearch Service permita o tráfego HTTPS dos grupos de segurança que você especificou ao configurar o fluxo de entrega. Se você utilizar o mesmo grupo de segurança para o fluxo de entrega e para o domínio do OpenSearch Service, certifique-se de que a regra de entrada do grupo de segurança permita o tráfego HTTPS. Para obter mais informações sobre regras de grupo de segurança, consulte Regras de grupo de segurança na documentação da Amazon VPC.

    Sugestões de buffer

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolher o OpenSearch Sem Servidor como destino

Esta seção descreve as opções para usar o OpenSearch Sem Servidor como destino.

  • Insira valores para os seguintes campos:

    Coleção do OpenSearch Sem Servidor

    O endpoint para um grupo de índices OpenSearch Sem Servidor ao qual os dados são entregues.

    Índice

    O nome do índice do OpenSearch Sem Servidor a ser usado ao indexar dados para a coleção OpenSearch Sem Servidor.

    Destination VPC connectivity (Conectividade da VPC de destino)

    Se a coleção do OpenSearch Sem Servidor estiver em uma VPC privada, use esta seção para especificar essa VPC. Especifique também as sub-redes e subgrupos que você deseja que o Kinesis Data Firehose use quando enviar dados para a coleção do OpenSearch Sem Servidor.

    Período de novas tentativas

    Período (0 a 7.200 segundos) durante o qual o Kinesis Data Firehose fará novas tentativas se uma solicitação de índice à coleção do OpenSearch Sem Servidor falhar. O Kinesis Data Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Kinesis Data Firehose não fará novas tentativas após uma falha na solicitação de índice.

    Sugestões de buffer

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolher o endpoint HTTP como destino

Esta seção descreve as opções para usar o endpoint HTTP como destino.

Importante

Se você escolher um endpoint HTTP como destino, revise e siga as instruções em Apêndice - Especificações de solicitação e resposta de entrega de endpoint HTTP.

  • Forneça os valores para os seguintes campos:

    Nome do endpoint HTTP - opcional

    Especifique um nome de usuário amigável para o endpoint HTTP. Por exemplo, My HTTP Endpoint Destination.

    URL do endpoint HTTP

    Especifique a URL para o endpoint HTTP no seguinte formato: https://xyz.httpendpoint.com. A origem deve ser uma URL HTTPS.

    Chave de acesso - opcional

    Entre em contato com o proprietário do endpoint para obter a chave de acesso (se for exigida) para permitir a entrega de dados do Kinesis Data Firehose ao endpoint.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Importante

    Para destinos de endpoint HTTP, se você estiver vendo códigos de resposta 413 do endpoint de destino no CloudWatch Logs, reduza o tamanho da sugestão de buffer no fluxo de entrega e tente novamente.

Escolher o Datadog como destino

Esta seção descreve as opções para usar o Datadog como destino. Para obter mais informações sobre o Datadog, consulte https://docs.datadoghq.com/integrations/amazon_web_services/.

  • Forneça os valores para os seguintes campos:

    URL do endpoint HTTP

    Escolha o URL do endpoint HTTP entre as seguintes opções no menu suspenso:

    • Logs do Datadog - EUA1

    • Logs do Datadog - EUA5

    • Logs do Datadog: EU

    • Logs do Datadog: GOV

    • Métricas do Datadog - EUA

    • Métricas do Datadog: EU

    Chave de API

    Entre em contato com a Datadog para obter a chave de API necessária para permitir a entrega de dados do Kinesis Data Firehose a esse endpoint.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolher o Honeycomb como destino

Esta seção descreve as opções para usar o Honeycomb como destino. Para obter mais informações sobre o Honeycomb, consulte https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/.

  • Forneça os valores para os seguintes campos:

    Endpoint do Honeycomb Kinesis

    Especifique o URL do endpoint HTTP no seguinte formato: hhttps://api.honeycomb.io/1/kinesis_events/{{dataset}}

    Chave de API

    Entre em contato com a Honeycomb para obter a chave de API necessária para permitir a entrega de dados do Kinesis Data Firehose a esse endpoint.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP para habilitar a codificação de conteúdo da solicitação. Essa é a opção recomendada quando o destino é o Honeycomb.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolher o Coralogix como destino

Esta seção descreve as opções para usar o Coralogix como destino. Para obter mais informações sobre o Coralogix, consulte https://coralogix.com/integrations/aws-firehose.

  • Forneça os valores para os seguintes campos:

    URL do endpoint HTTP

    Escolha o URL do endpoint HTTP entre as seguintes opções no menu suspenso:

    • Coralogix - EUA

    • Coralogix - SINGAPURA

    • Coralogix - IRLANDA

    • Coralogix - ÍNDIA

    • Coralogix - ESTOCOLMO

    Chave privada

    Entre em contato com a Coralogix para obter a chave privada necessária para permitir a entrega de dados do Kinesis Data Firehose a esse endpoint.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP para habilitar a codificação de conteúdo da solicitação. Essa é a opção recomendada quando o destino é o Coralogix.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    • applicationName: o ambiente em que você está executando o Data Firehose

    • subsystemName: o nome da integração do Data Firehose

    • computerName: o nome do fluxo de entrega em uso

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolher o Dynatrace como destino

Esta seção descreve as opções para usar o Dynatrace como destino. Para obter mais informações, consulte https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/.

  • Forneça os valores para os seguintes campos:

    URL do endpoint HTTP

    Escolha a URL do endpoint HTTP (Dynatrace EUA, Dynatrace UE ou Dynatrace Global) no menu suspenso.

    Token de API

    Gere o token de API do Dynatrace exigido para a entrega de dados do Kinesis Data Firehose. Para obter mais informações, consulte https://www.dynatrace.com/support/help/dynatrace-api/basics/dynatrace-api-authentication/.

    URL da API

    Forneça o URL da API do ambiente do Dynatrace.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Importante

    Ao usar o Dynatrace como o destino especificado, você deve especificar pelo menos um par de valor-chave de parâmetro. Você deve nomear essa chave dt-url e definir seu valor como o URL do ambiente do Dynatrace (por exemplo, https://xyzab123456.dynatrace.live.com). Depois, você tem a opção de especificar pares de valores-chave de parâmetros adicionais e defini-los com nomes e valores personalizados de sua escolha.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolher o LogicMonitor como destino

Esta seção descreve as opções para usar o LogicMonitor como destino. Para obter mais informações, consulte https://www.logicmonitor.com.

  • Forneça os valores para os seguintes campos:

    URL do endpoint HTTP

    Especifique um URL para o endpoint HTTP no seguinte formato: https://ACCOUNT.logicmonitor.com

    Chave de API

    Entre em contato com o LogicMonitor para obter a chave de API necessária para habilitar a entrega de dados para esse endpoint do Kinesis Data Firehose.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolher o Logz.io como destino

Esta seção descreve as opções para usar o Logz.io como destino. Para obter mais informações, consulte https://logz.io/.

nota

Na região da Europa (Milão), o Logz.io não é aceito destino do Amazon Kinesis Data Firehose.

  • Forneça os valores para os seguintes campos:

    URL do endpoint HTTP

    Especifique a URL para o endpoint HTTP no seguinte formato: https://listener-aws-metrics-stream-<region>.logz.io/. Por exemplo, https://listener-aws-metrics-stream-us.logz.io/. A origem deve ser uma URL HTTPS.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao Logz.io.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolher a MongoDB Cloud como destino

Esta seção descreve as opções para usar a MongoDB Cloud como destino. Para obter mais informações, consulte https://www.mongodb.com.

  • Forneça os valores para os seguintes campos:

    URL do webhook Realm do MongoDB

    Especifique a URL para o endpoint HTTP no seguinte formato: https://webhooks.mongodb-realm.com. A origem deve ser uma URL HTTPS.

    Chave de API

    Entre em contato com a MongoDB Cloud para obter a chave de API necessária para habilitar a entrega de dados para esse endpoint do Kinesis Data Firehose.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao provedor terceirizado selecionado.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

Escolher o New Relic como destino

Esta seção descreve as opções para usar o New Relic como destino. Para obter mais informações, consulte https://newrelic.com.

  • Forneça os valores para os seguintes campos:

    URL do endpoint HTTP

    Escolha o URL do endpoint HTTP entre as seguintes opções no menu suspenso:

    • Logs do New Relic - EUA

    • Métricas do New Relic - EUA

    • Métricas do New Relic - UE

    Chave de API

    Insira sua chave de licença (sequência hexadecimal de 40 caracteres) nas configurações da conta do New Relic One. Essa chave de API é necessária para permitir a entrega de dados do Kinesis Data Firehose a esse endpoint.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados do Kinesis Data Firehose ao endpoint HTTP do New Relic.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolha o Splunk como seu destino

Esta seção descreve as opções para usar o Splunk como destino.

  • Forneça os valores para os seguintes campos:

    Splunk cluster endpoint

    Para determinar o endpoint, consulte Configurar o Amazon Kinesis Firehose para enviar dados para a plataforma do Splunk na documentação do Splunk.

    Splunk endpoint type

    Escolha Raw endpoint na maioria dos casos. Selecione Event endpoint se você pré-processou seus dados usando o AWS Lambda para enviar dados para diferentes índices por tipo de evento. Para obter informações sobre qual endpoint usar, consulte Configurar o Amazon Kinesis Firehose para enviar dados para a plataforma Splunk na documentação do Splunk.

    Token de autenticação

    Para configurar um endpoint do Splunk que possa receber dados do Kinesis Data Firehose, consulte Installation and configuration overview for the Splunk Add-on for Amazon Kinesis Firehose na documentação do Splunk. Salve o token que você obtiver do Splunk quando configurar o endpoint para esse fluxo de entrega e adicione-lo aqui.

    HEC acknowledgement timeout

    Especifique quanto tempo o Kinesis Data Firehose aguarda a confirmação do índice do Splunk. Se o Splunk não enviar a confirmação antes de o tempo limite ser atingido, o Kinesis Data Firehose considerará que houve uma falha na entrega de dados. Depois, o Kinesis Data Firehose fará uma nova tentativa ou fará o backup dos dados no bucket do Amazon S3, dependendo do valor do período de novas tentativas que você definir.

    Período de novas tentativas

    Especifique por quanto o tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao Splunk.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do Splunk. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o Splunk (seja uma tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do Splunk.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

Escolher a Splunk Observability Cloud como destino

Esta seção descreve as opções para usar a Splunk Observability Cloud como destino. Para obter mais informações, consulte https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api.

  • Forneça os valores para os seguintes campos:

    URL do endpoint de ingestão na nuvem

    Você pode encontrar o URL de ingestão de dados em tempo real da Splunk Observability Cloud em Profile > Organizations > Real-time Data Ingest Endpoint no console do Splunk Observability.

    Token de acesso

    Copie seu token de acesso do Splunk Observability com o escopo de autorização de INGEST em Settings > Access Tokens no console do Splunk Observability

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao endpoint HTTP selecionado.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Escolher o Sumo Logic como destino

Esta seção descreve as opções para usar o Sumo Logic como destino. Para obter mais informações, consulte https://www.sumologic.com.

  • Forneça os valores para os seguintes campos:

    URL do endpoint HTTP

    Especifique a URL para o endpoint HTTP no seguinte formato: https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token. A origem deve ser uma URL HTTPS.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao Sumo Logic.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino do Elastic varia de acordo com o provedor de serviços.

Escolher o Elastic como destino

Esta seção descreve as opções para usar o Elastic como destino.

  • Forneça os valores para os seguintes campos:

    URL do endpoint do Elastic

    Especifique a URL para o endpoint HTTP no seguinte formato: https://<cluster-id>.es.<region>.aws.elastic-cloud.com. A origem deve ser uma URL HTTPS.

    Chave de API

    Entre em contato com o serviço Elastic para obter a chave de API necessária para permitir a entrega de dados do Kinesis Data Firehose a esse serviço.

    Codificação de conteúdo

    O Kinesis Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP (que é o selecionado por padrão) ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Kinesis Data Firehose faz novas tentativas de enviar os dados ao Elastic.

    Depois de enviar os dados, o Kinesis Data Firehose primeiro espera por uma confirmação do endpoint HTTP. Se ocorrer um erro ou a confirmação não chegar dentro do tempo limite para confirmação, o Kinesis Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Kinesis Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Kinesis Data Firehose envia dados para o endpoint HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint HTTP.

    Mesmo que o período de novas tentativas expire, o Kinesis Data Firehose ainda aguarda a confirmação até recebê-la ou até que o tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Kinesis Data Firehose determina se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Kinesis Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Kinesis Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de buffer do S3

    O Kinesis Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado quando o destino é O Elastic é de 1 MiB.