Choisissez la source et la destination de votre stream Firehose - Amazon Data Firehose

La diffusion de flux Amazon Data Firehose vers les tables Apache Iceberg dans Amazon S3 est en version préliminaire et peut faire l'objet de modifications.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Choisissez la source et la destination de votre stream Firehose

  1. Ouvrez la console Firehose à l'adresse. https://console.aws.amazon.com/firehose/

  2. Choisissez Create Firehose stream.

  3. Sur la page Create Firehose stream, choisissez une source pour votre stream Firehose parmi les options suivantes.

    • Direct PUT — Choisissez cette option pour créer un flux Firehose dans lequel les applications du producteur peuvent écrire directement. Voici certains des AWS services, agents et services open source qui s'intègrent à Direct PUT dans Amazon Data Firehose.

      • AWS SDK

      • AWS Lambda

      • AWS CloudWatch Journaux

      • AWS CloudWatch Évènements

      • AWS Streams métriques dans le cloud

      • AWS IOT

      • AWS Eventbridge

      • Amazon Simple Email Service

      • Amazon SNS

      • AWS WAFACLjournaux Web

      • Amazon API Gateway - Journaux d'accès

      • Amazon Pinpoint

      • Journaux Amazon MSK Broker

      • Journaux de requête Amazon Route 53 Resolver

      • AWS Journaux des alertes du Network Firewall

      • AWS Journaux de flux de Network Firewall

      • Amazon Elasticache Redis SLOWLOG

      • Kinesis Agent (Linux)

      • Kinesis Tap (Windows)

      • Fluentbit

      • Fluentd

      • Apache Nifi

      • Snowflake

    • Amazon Kinesis Data Streams : choisissez cette option pour configurer un flux Firehose qui utilise un flux de données Kinesis comme source de données. Vous pouvez ensuite utiliser Firehose pour lire facilement les données d'un flux de données Kinesis existant et les charger dans des destinations. Pour plus d'informations sur l'utilisation de Kinesis Data Streams comme source de données, consultez la section Envoi de données vers un flux Firehose avec Kinesis Data Streams.

    • Amazon MSK — Choisissez cette option pour configurer un flux Firehose qui utilise Amazon MSK comme source de données. Vous pouvez ensuite utiliser Firehose pour lire facilement les données d'un MSK cluster Amazon existant et les charger dans des compartiments S3 spécifiés. Pour plus d'informations, consultez Envoyer des données vers un flux Firehose avec Amazon. MSK

  4. Choisissez une destination pour votre flux Firehose à partir de l'une des destinations suivantes prises en charge par Firehose.

    • Amazon OpenSearch Service

    • Amazon OpenSearch sans serveur

    • Amazon Redshift

    • Amazon S3

    • Tables Apache Iceberg

    • Coralogix

    • Datadog

    • Dynatrace

    • Elasticité

    • HTTPPoint final

    • Honeycomb

    • Logic Monitor

    • Logz.io

    • MongoDB Cloud

    • New Relic

    • Splunk

    • Splunk Observability Cloud

    • Sumo Logic

    • Snowflake

  5. Pour le nom du flux Firehose, vous pouvez soit utiliser le nom que la console génère pour vous, soit ajouter le flux Firehose de votre choix.