La entrega de transmisiones de Amazon Data Firehose a Apache Iceberg Tables en Amazon S3 está en versión preliminar y está sujeta a cambios.
Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Configurar los ajustes de destino
En esta sección se describen los ajustes que debe configurar para su transmisión Firehose en función del destino que seleccione.
Temas
- Configurar los ajustes de destino para Amazon S3
- Configure los ajustes de destino para las tablas Apache Iceberg
- Configurar los ajustes de destino de Amazon Redshift
- Configure los ajustes de destino del servicio OpenSearch
- Configure los ajustes de destino para Serverless OpenSearch
- Configure los ajustes de destino para Endpoint HTTP
- Configura los ajustes de destino para Datadog
- Configure los ajustes de destino para Honeycomb
- Configure los ajustes de destino para Coralogix
- Configure los ajustes de destino para Dynatrace
- Configure los ajustes de destino para LogicMonitor
- Configure los ajustes de destino para Logz.io
- Configurar los ajustes de destino para MongoDB Cloud
- Configure los ajustes de destino de New Relic
- Configure los ajustes de destino para Snowflake
- Configure los ajustes de destino para Splunk
- Configure los ajustes de destino para Splunk Observability Cloud
- Configure los ajustes de destino para Sumo Logic
- Configura los ajustes de destino para Elastic
Configurar los ajustes de destino para Amazon S3
Debe especificar los siguientes ajustes para poder utilizar Amazon S3 como destino de su transmisión de Firehose.
-
Escriba valores en los siguientes campos:
- S3 bucket
-
Seleccione el bucket de S3 de su propiedad adonde se deben entregar los datos de streaming. Puede crear un bucket de S3 nuevo o elegir uno disponible.
- Delimitador de nueva línea
-
Puede configurar su transmisión Firehose para añadir un nuevo delimitador de líneas entre los registros de los objetos que se envían a Amazon S3. Para ello, elija Habilitado. Para no agregar un delimitador de nueva línea entre los registros de los objetos que se entregan en Amazon S3, seleccione Deshabilitado. Si planea usar Athena para consultar objetos de S3 con registros agregados, active esta opción.
- Particionamiento dinámico
-
Seleccione Habilitado para habilitar y configurar el particionamiento dinámico.
- Desagregación de varios registros
-
Este es el proceso de analizar los registros del flujo Firehose y separarlos en función del delimitador de línea nuevo o JSON válido especificado.
Si agregas varios eventos, registros o registros en una sola PutRecordBatch API llamada, puedes habilitar PutRecord y configurar la partición dinámica. Con los datos agregados, cuando habilita la partición dinámica, Amazon Data Firehose analiza los registros y busca varios objetos JSON válidos en cada llamada. API Si la transmisión de Firehose está configurada con Kinesis Data Stream como fuente, también puede utilizar la agregación integrada en la biblioteca de productores de Kinesis (). KPL La funcionalidad de partición de datos se ejecuta después de desagregar los datos. Por lo tanto, cada registro de cada API llamada se puede enviar a distintos prefijos de Amazon S3. También puede aprovechar la integración de la función Lambda para realizar cualquier otra desagregación o transformación antes de la funcionalidad de particionamiento de datos.
importante
Si sus datos están agregados, el particionamiento dinámico solo se puede aplicar una vez completada la desagregación de los datos. Por lo tanto, si habilita el particionamiento dinámico en sus datos agregados, debe seleccionar Habilitado para habilitar la desagregación de varios registros.
Firehose Stream realiza los siguientes pasos de procesamiento en el siguiente orden: desagregación KPL (protobuf) o desagregación de JSON delimitadores, procesamiento Lambda, particionamiento de datos, conversión de formatos de datos y entrega a Amazon S3.
- Tipo de desagregación de varios registros
-
Si has activado la desagregación de varios registros, debes especificar el método para que Firehose desagregue los datos. Usa el menú desplegable para elegir entre Delimitado o Delimitado JSON.
- Análisis en línea
-
Este es uno de los mecanismos admitidos para particionar dinámicamente los datos vinculados a Amazon S3. A fin de usar el análisis en línea para el particionamiento dinámico de sus datos, debe especificar los parámetros de registro de datos que se utilizarán como claves de particionamiento y proporcionar un valor para cada clave de particionamiento especificada. Seleccione Habilitado para habilitar y configurar el análisis en línea.
importante
Si especificó un AWS Función Lambda En los pasos anteriores para transformar sus registros fuente, puede usar esta función para particionar dinámicamente los datos enlazados a S3 y aún puede crear sus claves de partición con el análisis en línea. Con el particionamiento dinámico, puede utilizar el análisis en línea o su AWS Función Lambda para crear tus claves de particionamiento. O puede utilizar tanto el análisis en línea como su AWS Función Lambda al mismo tiempo para crear tus claves de particionamiento.
- Claves de particionamiento dinámico
-
Puede usar los campos Clave y Valor para especificar los parámetros de registro de datos que se utilizarán como claves de particionamiento dinámico y las consultas jq para generar valores de claves de particionamiento dinámico. Firehose solo es compatible con jq 1.6. Puede especificar hasta 50 claves de particionamiento dinámico. Debes introducir expresiones jq válidas para tus valores clave de particionamiento dinámico a fin de configurar correctamente el particionamiento dinámico para tu transmisión de Firehose.
- Prefijo de bucket de S3
-
Al habilitar y configurar el particionamiento dinámico, debe especificar los prefijos del bucket S3 a los que Amazon Data Firehose entregará los datos particionados.
Para que el particionamiento dinámico se configure correctamente, el número de prefijos de bucket de S3 debe ser idéntico al número de claves de particionamiento especificadas.
Puede particionar los datos de origen con el análisis en línea o con los que especifique AWS Función Lambda. Si especificó una AWS Función Lambda Para crear claves de partición para los datos de origen, debe escribir manualmente los valores del prefijo del bucket S3 con el siguiente formato: "lambda:keyID». partitionKeyFrom Si utiliza el análisis en línea para especificar las claves de partición para sus datos de origen, puede escribir manualmente los valores de vista previa del bucket de S3 con el siguiente formato: «partitionKeyFromquery:keyID» o puede elegir el botón Aplicar claves de partición dinámica para utilizar sus pares clave/valor de particionamiento dinámico para generar automáticamente los prefijos de su bucket de S3. Al particionar los datos mediante el análisis en línea o AWS Lambda, también puede usar las siguientes formas de expresión en el prefijo de su bucket de S3:! {namespace:value}, donde el espacio de nombres puede ser Query o Lambda. partitionKeyFrom partitionKeyFrom
- El bucket S3 y el error S3 generan una zona horaria con prefijo
Elija la zona horaria que desee usar para la fecha y la hora en los prefijos personalizados de los objetos de Amazon S3. De forma predeterminada, Firehose añade un prefijo de hora. UTC Puede cambiar la zona horaria utilizada en los prefijos de S3 si desea utilizar una zona horaria diferente.
- Sugerencias de almacenamiento en búfer
-
Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
- Compresión S3
-
Elija entre GZIP compresión de datos Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. La compresión Snappy compatible con Snappy, Zip y Hadoop no está disponible para las transmisiones de Firehose con Amazon Redshift como destino.
- Formato de extensión de archivo S3 (opcional)
Especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta función, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión de S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta función con la conversión de formato de datos o la compresión S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z! -_.*' (). La extensión del archivo no puede superar los 128 caracteres.
- Cifrado S3
Firehose admite el cifrado del lado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el bucket S3 de destino o cifrar con una clave de la lista de AWS KMS claves de las que eres propietario. Si cifra los datos con AWS KMS claves, puede usar cualquiera de las dos claves predeterminadas AWS clave administrada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte Protección de datos mediante el cifrado del lado del servidor con AWS KMS-Claves administradas (SSE-). KMS
Configure los ajustes de destino para las tablas Apache Iceberg
Las tablas Apache Iceberg como destino están disponibles en EE. UU. Este (Norte de Virginia), EE. UU. Oeste (Oregón), Europa (Irlanda), Asia-Pacífico (Tokio), Canadá (Central) y Asia Pacífico (Sídney) Regiones de AWS.
Para obtener más información sobre las tablas Apache Iceberg como destino, consulte. Entregue datos a Apache Iceberg Tables con Amazon Data Firehose
Configurar los ajustes de destino de Amazon Redshift
En esta sección se describe la configuración para usar Amazon Redshift como destino de transmisión de Firehose.
Elija uno de los siguientes procedimientos en función de si tiene un clúster aprovisionado de Amazon Redshift o un grupo de trabajo de Amazon Redshift sin servidor.
-
Configurar los ajustes de destino para el grupo de trabajo Amazon Redshift Serverless
nota
Firehose no puede escribir en los clústeres de Amazon Redshift que utilizan el enrutamiento mejorado. VPC
Clúster aprovisionado de Amazon Redshift
En esta sección se describe la configuración para usar el clúster aprovisionado de Amazon Redshift como destino de transmisión de Firehose.
-
Escriba valores en los siguientes campos:
- Clúster
-
Clúster de Amazon Redshift en el que se copian los datos del bucket de S3. Configure el clúster de Amazon Redshift para que sea de acceso público y desbloquee las direcciones IP de Amazon Data Firehose. Para obtener más información, consulte Otorgue a Firehose acceso a un destino de Amazon Redshift .
- Autenticación
-
Puede elegir entre introducir el nombre de usuario y la contraseña directamente o recuperar el secreto de AWS Secrets Manager para acceder al clúster de Amazon Redshift.
-
Nombre de usuario
Especifique un usuario de Amazon Redshift con permisos para acceder al clúster de Amazon Redshift. Este usuario debe tener el permiso
INSERT
de Amazon Redshift para copiar datos del bucket de S3 en el clúster de Amazon Redshift. Contraseña
Especifique la contraseña del usuario que tiene permisos para acceder al clúster.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contiene las credenciales del clúster de Amazon Redshift. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager para sus credenciales de Amazon Redshift. Para obtener más información, consulte Autenticarse con AWS Secrets Manager en Amazon Data Firehose.
-
- Base de datos
-
Base de datos de Amazon Redshift en la que se copian los datos.
- Tabla
-
Tabla de Amazon Redshift en la que se copian los datos.
- Columnas
-
Las columnas específicas de la tabla donde se copian los datos (opcional). Utilice esta opción si la cantidad de columnas definida en los objetos de Amazon S3 es menor que la cantidad de columnas en la tabla Amazon Redshift.
- Destino de S3 intermedio
-
Firehose envía primero los datos a su bucket de S3 y, a continuación, emite un comando de Amazon COPY Redshift para cargar los datos en su clúster de Amazon Redshift. Especifique el bucket de S3 de su propiedad adonde se deben entregar los datos de streaming. Cree un nuevo bucket de S3 o elija uno que le pertenezca.
Firehose no elimina los datos del bucket de S3 después de cargarlos en el clúster de Amazon Redshift. Puede administrar los datos en el bucket de S3 utilizando una configuración del ciclo de vida. Para obtener más información, consulte Administración del ciclo de vida de los objetos en la Guía del usuario de Amazon Simple Storage Service.
- Prefijo de S3 intermedio
-
(Opcional) Para utilizar el prefijo predeterminado de los objetos de Amazon S3, deje esta opción en blanco. Firehose utiliza automáticamente un prefijo en formato de UTC hora «
YYYY/MM/dd/HH
» para los objetos de Amazon S3 entregados. Puede añadir más elementos al comienzo de este prefijo. Para obtener más información, consulte Configurar el formato de nombre de objeto de Amazon S3. - COPYopciones
-
Parámetros que puede especificar en el comando COPY de Amazon Redshift. Podrían ser necesarios para la configuración. Por ejemplo, se requiere
GZIP
«» si la compresión de datos de Amazon S3 está habilitada. Se requiereREGION
«» si el bucket de S3 no está en el mismo AWS Región como clúster de Amazon Redshift. Para obtener más información, consulte la COPYGuía para desarrolladores de bases de datos Amazon Redshift. - COPYcomando
-
Comando COPY de Amazon Redshift. Para obtener más información, consulte la COPYGuía para desarrolladores de bases de datos Amazon Redshift.
- Retry duration
-
Tiempo (0—7200 segundos) para que Firehose vuelva a intentarlo si fallan los datos del clúster de COPY Amazon Redshift. Firehose lo vuelve a intentar cada 5 minutos hasta que finalice la duración del reintento. Si estableces la duración del reintento en 0 (cero) segundos, Firehose no volverá a intentarlo si se produce un error en COPY el comando.
- Sugerencias de almacenamiento en búfer
-
Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
- Compresión S3
-
Elija entre GZIP compresión de datos Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. La compresión Snappy compatible con Snappy, Zip y Hadoop no está disponible para las transmisiones de Firehose con Amazon Redshift como destino.
- Formato de extensión de archivo S3 (opcional)
Formato de extensión de archivo S3 (opcional): especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta función, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión de S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta función con la conversión de formato de datos o la compresión S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z! -_.*' (). La extensión del archivo no puede superar los 128 caracteres.
- Cifrado S3
Firehose admite el cifrado del lado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el bucket S3 de destino o cifrar con una clave de la lista de AWS KMS claves de las que eres propietario. Si cifra los datos con AWS KMS claves, puede usar cualquiera de las dos claves predeterminadas AWS clave administrada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte Protección de datos mediante el cifrado del lado del servidor con AWS KMS-Claves administradas (SSE-). KMS
Configurar los ajustes de destino para el grupo de trabajo Amazon Redshift Serverless
En esta sección se describe la configuración para usar el grupo de trabajo Amazon Redshift Serverless como destino de transmisión de Firehose.
-
Escriba valores en los siguientes campos:
- Nombre del grupo de trabajo
-
El grupo de trabajo de Amazon Redshift sin servidor en el que se copian los datos del bucket de S3. Configure el grupo de trabajo Amazon Redshift Serverless para que sea de acceso público y desbloquee las direcciones IP de Firehose. Para obtener más información, consulte la sección Conectarse a una instancia de Amazon Redshift sin servidor accesible públicamente en Conexión a Amazon Redshift sin servidor y también Otorgue a Firehose acceso a un destino de Amazon Redshift .
- Autenticación
-
Puede elegir entre introducir el nombre de usuario y la contraseña directamente o recuperar el secreto de AWS Secrets Manager para acceder al grupo de trabajo Amazon Redshift Serverless.
-
Nombre de usuario
Especifique un usuario de Amazon Redshift con permisos para acceder al grupo de trabajo Amazon Redshift Serverless. Este usuario debe tener el permiso
INSERT
de Amazon Redshift para copiar datos del bucket de S3 en el grupo de trabajo de Amazon Redshift sin servidor. Contraseña
Especifique la contraseña del usuario que tiene permisos para acceder al grupo de trabajo Amazon Redshift Serverless.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contiene las credenciales del grupo de trabajo Amazon Redshift Serverless. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager para sus credenciales de Amazon Redshift. Para obtener más información, consulte Autenticarse con AWS Secrets Manager en Amazon Data Firehose.
-
- Base de datos
-
Base de datos de Amazon Redshift en la que se copian los datos.
- Tabla
-
Tabla de Amazon Redshift en la que se copian los datos.
- Columnas
-
Las columnas específicas de la tabla donde se copian los datos (opcional). Utilice esta opción si la cantidad de columnas definida en los objetos de Amazon S3 es menor que la cantidad de columnas en la tabla Amazon Redshift.
- Destino de S3 intermedio
-
Amazon Data Firehose entrega primero los datos a su bucket de S3 y, a continuación, emite un comando de Amazon COPY Redshift para cargar los datos en su grupo de trabajo Amazon Redshift Serverless. Especifique el bucket de S3 de su propiedad adonde se deben entregar los datos de streaming. Cree un nuevo bucket de S3 o elija uno que le pertenezca.
Firehose no elimina los datos del bucket de S3 después de cargarlos en el grupo de trabajo Amazon Redshift Serverless. Puede administrar los datos en el bucket de S3 utilizando una configuración del ciclo de vida. Para obtener más información, consulte Administración del ciclo de vida de los objetos en la Guía del usuario de Amazon Simple Storage Service.
- Prefijo de S3 intermedio
-
(Opcional) Para utilizar el prefijo predeterminado de los objetos de Amazon S3, deje esta opción en blanco. Firehose utiliza automáticamente un prefijo en formato de UTC hora «
YYYY/MM/dd/HH
» para los objetos de Amazon S3 entregados. Puede añadir más elementos al comienzo de este prefijo. Para obtener más información, consulte Configurar el formato de nombre de objeto de Amazon S3. - COPYopciones
-
Parámetros que puede especificar en el comando COPY de Amazon Redshift. Podrían ser necesarios para la configuración. Por ejemplo, se requiere
GZIP
«» si la compresión de datos de Amazon S3 está habilitada. Se requiereREGION
«» si el bucket de S3 no está en el mismo AWS Región como grupo de trabajo Amazon Redshift Serverless. Para obtener más información, consulte la COPYGuía para desarrolladores de bases de datos Amazon Redshift. - COPYcomando
-
Comando COPY de Amazon Redshift. Para obtener más información, consulte la COPYGuía para desarrolladores de bases de datos Amazon Redshift.
- Retry duration
-
Tiempo (0—7200 segundos) para que Firehose vuelva a intentarlo si fallan los datos de su grupo de trabajo COPY Amazon Redshift Serverless. Firehose lo vuelve a intentar cada 5 minutos hasta que finalice la duración del reintento. Si estableces la duración del reintento en 0 (cero) segundos, Firehose no volverá a intentarlo si se produce un error en COPY el comando.
- Sugerencias de almacenamiento en búfer
-
Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
- Compresión S3
-
Elija entre GZIP compresión de datos Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. La compresión Snappy compatible con Snappy, Zip y Hadoop no está disponible para las transmisiones de Firehose con Amazon Redshift como destino.
- Formato de extensión de archivo S3 (opcional)
Formato de extensión de archivo S3 (opcional): especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta función, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión de S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta función con la conversión de formato de datos o la compresión S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z! -_.*' (). La extensión del archivo no puede superar los 128 caracteres.
- Cifrado S3
Firehose admite el cifrado del lado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el bucket S3 de destino o cifrar con una clave de la lista de AWS KMS claves de las que eres propietario. Si cifra los datos con AWS KMS claves, puede usar cualquiera de las dos claves predeterminadas AWS clave administrada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte Protección de datos mediante el cifrado del lado del servidor con AWS KMS-Claves administradas (SSE-). KMS
Configure los ajustes de destino del servicio OpenSearch
En esta sección se describen las opciones para usar el OpenSearch Servicio en su destino.
-
Escriba valores en los siguientes campos:
- OpenSearch Dominio de servicio
-
El dominio de OpenSearch servicio al que se envían sus datos.
- Índice
-
El nombre del índice de OpenSearch servicios que se utilizará al indexar los datos en su clúster OpenSearch de servicios.
- Index rotation
-
Elija si se debe rotar el índice OpenSearch de servicios y con qué frecuencia. Si la rotación de índices está habilitada, Amazon Data Firehose añade la marca de tiempo correspondiente al nombre del índice especificado y rota. Para obtener más información, consulte Configura la rotación del índice para el servicio OpenSearch .
- Tipo
-
El nombre del tipo de OpenSearch servicio que se utilizará al indexar los datos en su clúster de servicios. OpenSearch Para Elasticsearch 7.x y OpenSearch 1.x, solo puede haber un tipo por índice. Si intentas especificar un tipo nuevo para un índice existente que ya tiene otro tipo, Firehose devuelve un error durante el tiempo de ejecución.
Para Elasticsearch 7.x, deje este campo vacío.
- Retry duration
-
Tiempo que tarda Firehose en volver a intentarlo si se produce un error en una solicitud de indexación. OpenSearch En este caso, Firehose lo vuelve a intentar cada 5 minutos hasta que caduque la duración del reintento. Para la duración del reintento, puedes establecer cualquier valor entre 0 y 7200 segundos.
Una vez transcurrido el tiempo de reintento, Firehose envía los datos a Dead Letter Queue DLQ (), un depósito de errores de S3 configurado. En el caso de los datos enviados aDLQ, hay que volver a llevarlos del depósito de errores de S3 configurado al destino. OpenSearch
Si quieres impedir que Firehose Stream entregue datos DLQ debido a un tiempo de inactividad o al mantenimiento de OpenSearch los clústeres, puedes configurar la duración del reintento con un valor superior en segundos. Para aumentar el valor de duración del reintento por encima de los 7200 segundos, ponte en contacto con el AWS soporte.
- Tipo de DocumentID
-
Indica el método para configurar el ID de documento. Los métodos admitidos son el ID de documento generado por FireHose y el ID de documento generado por el OpenSearch servicio. El identificador del documento generado por Firehose es la opción predeterminada cuando el valor del identificador del documento no está establecido. OpenSearch La opción recomendada es el identificador de documento generado por el servicio, ya que permite realizar operaciones de escritura intensiva, como el análisis y la observabilidad de los registros, por lo que consume menos CPU recursos en el dominio del OpenSearch servicio y, por lo tanto, mejora el rendimiento.
- Conectividad de destino VPC
-
Si su dominio de OpenSearch servicio es privadoVPC, utilice esta sección para especificarloVPC. Especifique también las subredes y subgrupos que desea que Amazon Data Firehose utilice cuando envíe datos a su dominio de servicio. OpenSearch Puede usar los mismos grupos de seguridad que usa el dominio del OpenSearch servicio. Si especifica diferentes grupos de seguridad, asegúrese de que permitan el HTTPS tráfico saliente al grupo de seguridad del dominio de OpenSearch servicio. Asegúrese también de que el grupo de seguridad del dominio de OpenSearch servicio permita el HTTPS tráfico de los grupos de seguridad que especificó al configurar la transmisión de Firehose. Si utilizas el mismo grupo de seguridad tanto para la transmisión de Firehose como para el dominio de OpenSearch servicio, asegúrate de que la regla de entrada del grupo de seguridad permita el tráfico. HTTPS Para obtener más información sobre las reglas de grupos de seguridad, consulta Reglas de grupos de seguridad en la VPC documentación de Amazon.
importante
Cuando especifique subredes para entregar datos al destino en un entorno privadoVPC, asegúrese de tener un número suficiente de direcciones IP libres en las subredes elegidas. Si no hay una dirección IP gratuita disponible en una subred específica, Firehose no podrá crear ni ENIs añadir para la entrega de datos en la red VPC privada, y la entrega se degradará o fallará.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configure los ajustes de destino para Serverless OpenSearch
En esta sección se describen las opciones para usar OpenSearch Serverless como destino.
-
Escriba valores en los siguientes campos:
- OpenSearch Colección sin servidor
-
El punto final de un grupo de índices OpenSearch sin servidor al que se envían los datos.
- Índice
-
El nombre del índice OpenSearch Serverless que se utilizará al indexar los datos para su colección Serverless. OpenSearch
- VPCConectividad de destino
-
Si su colección OpenSearch Serverless está en un entorno privadoVPC, utilice esta sección para especificarlo. VPC Especifique también las subredes y subgrupos que desea que Amazon Data Firehose utilice cuando envíe datos a su colección Serverless. OpenSearch
importante
Cuando especifique subredes para entregar los datos al destino en un entorno privadoVPC, asegúrese de tener un número suficiente de direcciones IP libres en las subredes elegidas. Si no hay una dirección IP gratuita disponible en una subred específica, Firehose no podrá crear ni ENIs añadir para la entrega de datos en la red VPC privada, y la entrega se degradará o fallará.
- Retry duration
-
Tiempo que tarda Firehose en volver a intentarlo si se produce un error en una solicitud de índice a OpenSearch Serverless. En este caso, Firehose lo vuelve a intentar cada 5 minutos hasta que caduque la duración del reintento. Para la duración del reintento, puedes establecer cualquier valor entre 0 y 7200 segundos.
Una vez transcurrido el tiempo de reintento, Firehose envía los datos a Dead Letter Queue DLQ (), un depósito de errores de S3 configurado. En el caso de los datos enviados aDLQ, debes volver a llevarlos del depósito de errores de S3 configurado a un destino sin servidor. OpenSearch
Si quieres impedir que Firehose Stream entregue datos DLQ debido a un tiempo de inactividad o al mantenimiento de los clústeres OpenSearch sin servidor, puedes configurar la duración del reintento con un valor superior en segundos. Para aumentar el valor de duración del reintento por encima de los 7200 segundos, ponte en contacto con el AWS soporte.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configure los ajustes de destino para Endpoint HTTP
En esta sección, se describen las opciones para usar el HTTPpunto final como destino.
importante
Si elige un HTTP punto final como destino, revise y siga las instrucciones que se indican en élComprenda las especificaciones de solicitud y respuesta de entrega de HTTP terminales.
-
Proporcione valores para los siguientes campos:
- HTTPnombre del punto final: opcional
-
Especifique un nombre fácil de usar para el HTTP punto final. Por ejemplo,
My HTTP Endpoint Destination
. - HTTPpunto final URL
-
Especifique el URL para el HTTP punto final en el siguiente formato:
https://xyz.httpendpoint.com
. URLDebe ser un HTTPSURL. - Autenticación
-
Puede elegir entre introducir la clave de acceso directamente o recuperar el secreto de AWS Secrets Manager para acceder al HTTP punto final.
Clave de acceso (opcional)
Ponte en contacto con el propietario del terminal si necesitas obtener la clave de acceso para permitir la entrega de datos a su punto final desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga la clave de acceso del HTTP punto final. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager para la clave de acceso. Para obtener más información, consulte Autenticarse con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIPo desactive para activar o desactivar la codificación del contenido de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar los datos al punto de conexión seleccionado. HTTP
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
importante
Para los destinos de HTTP punto final, si ves 413 códigos de respuesta del punto final de destino en CloudWatch Logs, reduce el tamaño de la sugerencia de almacenamiento en búfer en tu transmisión de Firehose e inténtalo de nuevo.
Configura los ajustes de destino para Datadog
En esta sección se describen las opciones de uso de Datadog como destino. Para obtener más información sobre Datadog, consulte amazon_web_services/. https://docs.datadoghq.com/integrations/
-
Proporcione valores para los siguientes campos.
- HTTPpunto final URL
-
Elija dónde quiere enviar los datos desde una de las siguientes opciones del menú desplegable.
-
Registros de Datadog - US1
-
Registros de Datadog - US3
-
Registros de Datadog - US5
-
Registros de Datadog - AP1
-
Registros de Datadog: UE
-
Registros de Datadog - GOV
-
Métricas de Datadog: EE. UU.
-
Métricas de Datadog - US5
-
Métricas de Datadog - AP1
-
Métricas de Datadog: UE
-
Configuraciones de Datadog - US1
-
Configuraciones de Datadog - US3
-
Configuraciones de Datadog - US5
-
Configuraciones de Datadog - AP1
-
Configuraciones de Datadog: UE
-
Configuraciones de Datadog: EE. UU. GOV
-
- Autenticación
-
Puede elegir entre introducir la API clave directamente o recuperar el secreto de AWS Secrets Manager para acceder a Datadog.
APIclave
Póngase en contacto con Datadog para obtener la API clave que necesita para permitir la entrega de datos a este punto final desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contiene la API clave de Datadog. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIPo desactive para activar o desactivar la codificación del contenido de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar los datos al punto de conexión seleccionado. HTTP
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configure los ajustes de destino para Honeycomb
En esta sección se describen las opciones de uso de Honeycomb como destino. Para obtener más información sobre Honeycomb, consulte https://docs.honeycomgetting-data-inb.io/
-
Proporcione valores para los siguientes campos:
- Punto de conexión entre Honeycomb y Kinesis
-
Especifique el formato URL para el HTTP punto final en el siguiente formato: https://api.honeycom b.io/1/kinesis_events/ {{dataset}}
- Autenticación
-
Puede elegir entre introducir la clave directamente o recuperar el secreto de API AWS Secrets Manager para acceder a Honeycomb.
APIclave
Póngase en contacto con Honeycomb para obtener la API clave que necesita para permitir la entrega de datos a este punto final desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contiene la API clave de Honeycomb. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Elija GZIPhabilitar la codificación del contenido de su solicitud. Esta es la opción recomendada para el destino de Honeycomb.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar los datos al punto de conexión seleccionado. HTTP
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configure los ajustes de destino para Coralogix
En esta sección se describen las opciones de uso de Coralogix como destino. Para obtener más información sobre Coralogix, consulte Primeros pasos con Coralogix.
-
Proporcione valores para los siguientes campos:
- HTTPpunto final URL
-
Elija el HTTP punto final URL entre las siguientes opciones del menú desplegable:
-
Coralogix: EE. UU.
-
Coralogix - SINGAPORE
-
Coralogix - IRELAND
-
Coralogix - INDIA
-
Coralogix - STOCKHOLM
-
- Autenticación
-
Puede elegir entre introducir la clave privada directamente o recuperar el secreto de AWS Secrets Manager para acceder a Coralogix.
Clave privada
Póngase en contacto con Coralogix para obtener la clave privada que necesita para permitir la entrega de datos a este punto final desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contiene la clave privada de Coralogix. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Elija GZIPhabilitar la codificación del contenido de su solicitud. Esta es la opción recomendada para el destino de Coralogix.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar los datos al punto de conexión seleccionado. HTTP
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
-
applicationName: el entorno en el que se ejecuta Data Firehose
-
subsystemName: el nombre de la integración de Data Firehose
-
computerName: el nombre del arroyo Firehose en uso
-
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño de búfer recomendado para el destino varía en función del proveedor de servicios.
Configure los ajustes de destino para Dynatrace
En esta sección se describen las opciones de uso de Dynatrace como destino. Para obtener más información, consulte https://www.dynatrace.com/support/help/technology-support/cloud-platforms/ /integrations/ amazon-web-services
-
Elige opciones para usar Dynatrace como destino para tu transmisión de Firehose.
- Tipo de ingestión
-
Elija si quiere entregar métricas o registros (por defecto) en Dynatrace para su posterior análisis y procesamiento.
- HTTPpunto final URL
-
Elija el HTTP punto final URL (Dynatrace US, Dynatrace EU o Dynatrace Global) en el menú desplegable.
- Autenticación
-
Puedes elegir entre introducir el API token directamente o recuperar el secreto de AWS Secrets Manager para acceder a Dynatrace.
APItoken
Genera el API token de Dynatrace que necesitas para habilitar la entrega de datos a este punto final desde Firehose. Para obtener más información, consulte Dynatrace API
: Tokens y autenticación. -
Secret
Seleccione un secreto de AWS Secrets Manager que contiene el API token de Dynatrace. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- API URL
-
Proporcione el API URL de su entorno de Dynatrace.
- Codificación de contenidos
-
Elija si desea habilitar la codificación de contenido para comprimir el cuerpo de la solicitud. Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Cuando está habilitada, el contenido se comprime en ese GZIPformato.
- Retry duration
-
Especifique durante cuánto tiempo Firehose volverá a intentar enviar los datos al punto final seleccionado. HTTP
Tras enviar los datos, Firehose espera primero un acuse de recibo del punto final. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Firehose envía datos al HTTP punto final, ya sea durante el intento inicial o después de volver a intentarlo, reinicia el contador de tiempo de espera de confirmación y espera un acuse de recibo del punto final. HTTP
Incluso si la duración del reintento vence, Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. Las sugerencias del búfer incluyen el tamaño y el intervalo del búfer de las transmisiones. El tamaño de búfer recomendado para el destino varía según el proveedor de servicios.
Configure los ajustes de destino para LogicMonitor
En esta sección se describen las opciones que puede utilizar LogicMonitorpara su destino. Para obtener más información, consulte https://www.logicmonitor.com
-
Proporcione valores para los siguientes campos:
- HTTPpunto final URL
-
Especifique el URL para el HTTP punto final en el siguiente formato.
https://ACCOUNT.logicmonitor.com
- Autenticación
-
Puede elegir entre introducir la API clave directamente o recuperar el secreto de AWS Secrets Manager para acceder LogicMonitor.
APIclave
Póngase en contacto con Firehose LogicMonitor para obtener la API clave que necesita para habilitar la entrega de datos a este punto final.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contiene la API clave de LogicMonitor. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIPo desactive para activar o desactivar la codificación del contenido de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar los datos al punto de conexión seleccionado. HTTP
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configure los ajustes de destino para Logz.io
En esta sección se describen las opciones de uso de Logz.io como destino. Para obtener más información, consulte https://logz.io/.
nota
En la región de Europa (Milán), Logz.io no es compatible como destino de Amazon Data Firehose.
-
Proporcione valores para los siguientes campos:
- HTTPpunto final URL
-
Especifique el URL para el HTTP punto final en el siguiente formato. URLDebe ser un
HTTPS
URL.https://listener-aws-metrics-stream-<region>.logz.io/
Por ejemplo
https://listener-aws-metrics-stream-us.logz.io/
- Autenticación
-
Puedes elegir entre introducir el token de envío directamente o recuperar el secreto de AWS Secrets Manager para acceder a Logz.io.
-
Token de envío
Ponte en contacto con Logz.io para obtener el token de envío que necesitas para permitir la entrega de datos a este punto final desde Firehose.
-
Secret
Selecciona un secreto de AWS Secrets Manager que contiene el token de envío de Logz.io. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
-
- Retry duration
-
Especifica durante cuánto tiempo Amazon Data Firehose vuelve a intentar enviar datos a Logz.io.
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configurar los ajustes de destino para MongoDB Cloud
En esta sección se describen las opciones de uso de MongoDB Cloud como destino. Para obtener más información, consulte. https://www.mongodb.com
-
Proporcione valores para los siguientes campos:
- Webhook de MongoDB Realm URL
-
Especifique el URL para el HTTP punto final en el siguiente formato.
https://webhooks.mongodb-realm.com
URLDebe ser un
HTTPS
URL. - Autenticación
-
Puede elegir entre introducir la API clave directamente o recuperar el secreto de AWS Secrets Manager para acceder a MongoDB Cloud.
APIclave
Póngase en contacto con MongoDB Cloud para obtener API la clave que necesita para permitir la entrega de datos a este punto final desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contiene la API clave de MongoDB Cloud. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIPo desactive para activar o desactivar la codificación del contenido de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar datos al proveedor externo seleccionado.
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
Configure los ajustes de destino de New Relic
En esta sección se describen las opciones de uso de New Relic como destino. Para obtener más información, consulte https://newrelic.com
-
Proporcione valores para los siguientes campos:
- HTTPpunto final URL
-
Elija el HTTP punto final URL entre las siguientes opciones de la lista desplegable.
-
Registros de New Relic: EE. UU.
-
Métricas de New Relic: EE. UU.
-
Métricas de New Relic: UE
-
- Autenticación
-
Puede elegir entre introducir la API clave directamente o recuperar el secreto de AWS Secrets Manager para acceder a New Relic.
APIclave
Introduzca su clave de licencia, que es una cadena hexadecimal de 40 caracteres, en la configuración de su cuenta New Relic One. Necesita esta API clave para permitir la entrega de datos a este punto final desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contiene la API clave de New Relic. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIPo desactive para activar o desactivar la codificación del contenido de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose vuelve a intentar enviar datos al punto final de New Relic. HTTP
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configure los ajustes de destino para Snowflake
En esta sección se describen las opciones para usar Snowflake como destino.
nota
La integración de Firehose con Snowflake está disponible en EE. UU. Este (Virginia del Norte), EE. UU. Oeste (Oregón), Europa (Irlanda), EE. UU. Este (Ohio), Asia Pacífico (Tokio), Europa (Fráncfort), Asia Pacífico (Singapur), Asia Pacífico (Seúl) y Asia Pacífico (Sídney), Asia Pacífico (Bombay), Europa (Londres), Sudamérica (São Paulo), Canadá (Central), Europa (París), Asia Pacífico (Osaka), Europa (Estocolmo), Asia Pacífico (Yakarta) Regiones de AWS.
Ajustes de conexión
-
Proporcione valores para los siguientes campos:
- Cuenta Snowflake URL
-
Especifique una cuenta de Snowflake. URL Por ejemplo:
xy12345.us-east-1.aws.snowflakecomputing.com
. Consulte la documentación de Snowflakepara saber cómo determinar su cuenta. URL Tenga en cuenta que no debe especificar el número de puerto, mientras que el protocolo (https://) es opcional. - Autenticación
-
Puedes elegir entre introducir el nombre de usuario, la clave privada y la contraseña manualmente o recuperar el secreto de AWS Secrets Manager para acceder a Snowflake.
-
Inicio de sesión de usuario
Especifique el usuario de Snowflake que se utilizará para cargar los datos. Asegúrese de que el usuario tiene acceso para insertar datos en la tabla Snowflake.
-
Clave privada
Especifique la clave privada del usuario utilizada para la autenticación con Snowflake. Asegúrese de que la clave privada esté en
PKCS8
formato. No incluya el PEM encabezado ni el pie de página como parte de esta clave. Si la clave está dividida en varias líneas, elimine los saltos de línea. Contraseña
Especifique la contraseña para descifrar la clave privada cifrada. Puede dejar este campo vacío si la clave privada no está cifrada. Para obtener más información, consulte Uso de la autenticación de pares de claves y la rotación de claves
. -
Secret
Seleccione un secreto de AWS Secrets Manager que contenga las credenciales de Snowflake. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
-
- Configuración de roles
-
Usar el rol de Snowflake predeterminado: si se selecciona esta opción, Firehose no pasará ningún rol a Snowflake. Se asume que el rol predeterminado carga los datos. Asegúrese de que el rol predeterminado tenga permiso para insertar datos en la tabla de Snowflake.
Usa un rol de copo de nieve personalizado: introduce un rol de copo de nieve no predeterminado para que lo asuma Firehose al cargar datos en la tabla de copos de nieve.
- Conectividad con Snowflake
-
Las opciones son privadas o públicas.
- VPCEID privado (opcional)
-
El VPCE identificador de Firehose para conectarse de forma privada con Snowflake. El formato de ID es com.amazonaws.vpce. [región] .vpce-svc-
[id]
Para obtener más información, consulte .AWS PrivateLink &Copo de nieve. nota
Asegúrese de que su red Snowflake permita el acceso a Firehose. Le recomendamos que desactive la política de red basada en IP en su cuenta de Snowflake cuando la política de red
AwsVpceIds
basada en IP ya esté habilitada. Si activas la política de red basada en IP en Snowflake, podría bloquear el tráfico de datos de Firehose. Si tiene un caso extremo que requiere políticas basadas en IP, póngase en contacto con el equipo de Firehose enviando unticket de soporte. Para obtener una lista de los VPCE IDs que puede utilizar, consulte la. Acceder a Snowflake en VPC
Configuración de las bases de datos
-
Debes especificar los siguientes ajustes para usar Snowflake como destino de tu transmisión Firehose.
-
Base de datos de Snowflake: todos los datos de Snowflake se guardan en bases de datos.
-
Esquema de Snowflake: cada base de datos consta de uno o más esquemas, que son agrupaciones lógicas de objetos de base de datos, como tablas y vistas
-
Tabla Snowflake: todos los datos de Snowflake se almacenan en tablas de bases de datos, estructuradas de forma lógica como conjuntos de columnas y filas.
-
Opciones de carga de datos para la tabla de Snowflake
-
Utilice JSON las claves como nombres de columna
Usa VARIANT columnas
Nombre de la columna de contenido: especifique un nombre de columna en la tabla, donde se deben cargar los datos sin procesar.
Nombre de la columna de metadatos (opcional): especifique un nombre de columna en la tabla, donde se debe cargar la información de los metadatos.
Retry duration
Tiempo (0—7200 segundos) para que Firehose vuelva a intentarlo si la apertura del canal o la entrega a Snowflake fallan debido a problemas con el servicio de Snowflake. Firehose lo vuelve a intentar con un retraso exponencial hasta que finalice la duración del reintento. Si estableces la duración del reintento en 0 (cero) segundos, Firehose no volverá a intentarlo en caso de que Snowflake falle y enrutará los datos al depósito de errores de Amazon S3.
Consejos sobre el búfer
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro. Para obtener más información, consulte Configure las sugerencias de almacenamiento en búfer.
Configure los ajustes de destino para Splunk
Esta sección describe las opciones de uso de Splunk como destino.
nota
Firehose entrega los datos a los clústeres de Splunk configurados con Classic Load Balancer o Application Load Balancer.
-
Proporcione valores para los siguientes campos:
- Splunk cluster endpoint
-
Para determinar el punto final, consulte Configurar Amazon Data Firehose para enviar datos a la plataforma Splunk en la documentación de Splunk
. - Splunk endpoint type
-
Elija
Raw endpoint
en la mayoría de los casos. ElijaEvent endpoint
si ha preprocesado sus datos utilizando AWS Lambda para enviar datos a diferentes índices por tipo de evento. Para obtener información sobre qué punto de conexión usar, consulte Configurar Amazon Data Firehose para enviar datos a la plataforma Splunk en la documentación de Splunk. - Autenticación
-
Puede elegir entre introducir el token de autenticación directamente o recuperar el secreto desde AWS Secrets Manager para acceder a Splunk.
Authentication token
Para configurar un punto final de Splunk que pueda recibir datos de Amazon Data Firehose, consulte la descripción general de instalación y configuración del complemento de Splunk para Amazon Data Firehose en la
documentación de Splunk. Guarda el token que obtengas de Splunk al configurar el punto final para esta transmisión de Firehose y agrégalo aquí. -
Secret
Selecciona un secreto de AWS Secrets Manager que contiene el token de autenticación de Splunk. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- HECtiempo de espera de confirmación
-
Especifique cuánto tiempo espera Amazon Data Firehose a que Splunk acuse de recibo del índice. Si Splunk no envía el acuse de recibo antes de que se agote el tiempo de espera, Amazon Data Firehose considerará que se trata de un error en la entrega de datos. A continuación, Amazon Data Firehose vuelve a intentarlo o hace una copia de seguridad de los datos en su bucket de Amazon S3, según el valor de duración del reintento que haya establecido.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar datos a Splunk.
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo de Splunk. Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos a Splunk (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera una confirmación de Splunk.
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño de búfer recomendado para el destino varía en función del proveedor de servicios.
Configure los ajustes de destino para Splunk Observability Cloud
En esta sección se describen las opciones de uso de Splunk Observability Cloud como destino. Para obtener más información, consulte https://docs.splunk.com/observability/en/gdi/ get-data-in
-
Proporcione valores para los siguientes campos:
- Punto final de Cloud Ingest URL
-
Puede encontrar el punto final de ingesta de datos en tiempo real de Splunk Observability Cloud URL en Profile > Organizations > Real-time Data Ingest Endpoint en la consola de Splunk Observability.
- Autenticación
-
Puede elegir entre introducir el token de acceso directamente o recuperar el secreto de AWS Secrets Manager para acceder a Splunk Observability Cloud.
Token de acceso
Copia tu token de acceso a Splunk Observability con el alcance de la INGEST autorización desde los Tokens de acceso, en la sección Configuración de la consola de Splunk Observability.
-
Secret
Selecciona un secreto de AWS Secrets Manager que contiene el token de acceso a Splunk Observability Cloud. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIPo desactive para activar o desactivar la codificación del contenido de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar los datos al punto de conexión seleccionado. HTTP
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configure los ajustes de destino para Sumo Logic
En esta sección se describen las opciones de uso de Sumo Logic como destino. Para obtener más información, consulte https://www.sumologic.com
-
Proporcione valores para los siguientes campos:
- HTTPpunto final URL
-
Especifique el URL para el HTTP punto final en el siguiente formato:
https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token
. URLDebe ser un HTTPSURL. - Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIPo desactive para activar o desactivar la codificación del contenido de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar datos a Sumo Logic.
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Consejos de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño del búfer recomendado para el destino de Elastic varía de un proveedor de servicios a otro.
Configura los ajustes de destino para Elastic
En esta sección se describen las opciones de uso de Elastic como destino.
-
Proporcione valores para los siguientes campos:
- Punto final elástico URL
-
Especifique el URL para el HTTP punto final en el siguiente formato:
https://<cluster-id>.es.<region>.aws.elastic-cloud.com
. URLDebe ser un HTTPSURL. - Autenticación
-
Puede elegir entre introducir la API clave directamente o recuperar el secreto de AWS Secrets Manager para acceder a Elastic.
APIclave
Ponte en contacto con Elastic para obtener la API clave que necesitas para permitir la entrega de datos a su servicio desde Firehose.
-
Secret
Selecciona un secreto de AWS Secrets Manager que contiene la API clave de Elastic. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulteAutenticarse con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenido para comprimir el cuerpo de una solicitud antes de enviarla al destino. Elija GZIP(que es lo que está seleccionado de forma predeterminada) o Desactivado para activar o desactivar la codificación del contenido de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose volverá a intentar enviar datos a Elastic.
Tras enviar los datos, Amazon Data Firehose espera primero el acuse de recibo del punto de conexión. HTTP Si se produce un error o el acuse de recibo no llega dentro del tiempo de espera del acuse de recibo, Amazon Data Firehose inicia el contador de duración de los reintentos. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error en la entrega de datos y realiza una copia de seguridad de los datos en su bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al HTTP punto final (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que el punto final lo confirme. HTTP
Incluso si la duración del reintento vence, Amazon Data Firehose seguirá esperando el acuse de recibo hasta que lo reciba o se agote el tiempo de espera del acuse de recibo. Si se agota el tiempo de espera de la confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintentos. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no quieres que Amazon Data Firehose vuelva a intentar enviar datos, establece este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares clave-valor en cada llamada. HTTP Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Consejos de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos entrantes antes de entregarlos al destino especificado. El tamaño de búfer recomendado para el destino de Elastic es de 1 MiB.