Origen, destino y nombre - Amazon Data Firehose

Amazon Data Firehose se conocía anteriormente como Amazon Kinesis Data Firehose

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Origen, destino y nombre

  1. Inicie sesión en la consola Amazon Data Firehose AWS Management Console y ábrala en https://console.aws.amazon.com/firehose

  2. Selecciona Crear transmisión de Firehose.

  3. Escriba valores en los siguientes campos:

    Origen
    • Direct PUT: elija esta opción para crear una transmisión Firehose en la que las aplicaciones del productor escriban directamente. Actualmente, los siguientes son AWS los servicios, agentes y servicios de código abierto que se integran con Direct PUT en Amazon Data Firehose:

      • AWS SDK

      • AWS Lambda

      • AWS CloudWatch Registros

      • AWS CloudWatch Eventos

      • AWS Flujos de métricas en la nube

      • AWS IOT

      • AWS Eventbridge

      • Amazon Simple Email Service

      • Amazon SNS

      • AWS Registros de ACL web de WAF

      • Amazon API Gateway: registros de acceso

      • Amazon Pinpoint

      • Registro de agente de Amazon MSK

      • Registros de consultas de Amazon Route 53 Resolver

      • AWS Registros de alertas de Network Firewall

      • AWS Registros de flujo de Network Firewall

      • Amazon Elasticache Redis SLOWLOG

      • Agente de Kinesis (Linux)

      • Kinesis Tap (Windows)

      • Fluentbit

      • Fluentd

      • Apache Nifi

      • Snowflake

    • Transmisión de Kinesis: elija esta opción para configurar una transmisión de Firehose que utilice una transmisión de datos de Kinesis como fuente de datos. A continuación, puede utilizar Amazon Data Firehose para leer fácilmente los datos de una transmisión de datos de Kinesis existente y cargarlos en los destinos. Para obtener más información sobre el uso de Kinesis Data Streams como fuente de datos, consulte Cómo escribir en Amazon Data Firehose mediante Kinesis Data Streams.

    • Amazon MSK: elija esta opción para configurar una transmisión de Firehose que utilice Amazon MSK como fuente de datos. A continuación, puede usar Firehose para leer fácilmente los datos de un clúster de Amazon MSK existente y cargarlos en buckets S3 específicos. Para obtener más información sobre el uso de Amazon MSK como fuente de datos, consulte Cómo escribir en Amazon Data Firehose con Amazon MSK.

    Destino del arroyo Firehose

    El destino de tu transmisión Firehose. Amazon Data Firehose puede enviar registros de datos a varios destinos, incluidos Amazon Simple Storage Service (Amazon S3), Amazon Redshift, OpenSearch Amazon Service y cualquier punto de enlace HTTP que sea propiedad suya o de alguno de sus proveedores de servicios externos. A continuación se indican los destinos admitidos:

    • OpenSearch Servicio Amazon

    • Amazon OpenSearch Serverless

    • Amazon Redshift

    • Amazon S3

    • Coralogix

    • Datadog

    • Dynatrace

    • Elastic

    • Punto de conexión HTTP

    • Honeycomb

    • Logic Monitor

    • Logz.io

    • MongoDB Cloud

    • New Relic

    • Splunk

    • Splunk Observability Cloud

    • Sumo Logic

    • Snowflake

    Nombre de la transmisión Firehose

    El nombre de tu transmisión de Firehose.