

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 为 Firehose 流选择来源和目的地
<a name="create-name"></a>

****

1. 在 [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/) 中打开 Firehose 控制台。

1. 选择**创建 Firehose 流**。

1. 在**创建 Firehose 流**页面上，从以下选项中选择一个 Firehose 流的来源。
   + **Direct PUT**：选择此选项可创建 Firehose 流，供生产者应用程序直接写入。以下是与 Amazon Data Firehose 中的 Direct PUT 集成的 AWS 服务、代理以及开源服务的列表。此列表并非详尽无遗，可能还有其他服务可用于将数据直接发送到 Firehose。
     + AWS SDK
     + AWS Lambda
     + AWS CloudWatch Logs
     + AWS CloudWatch Events
     + AWS Cloud Metric Streams
     + AWS IoT
     + AWS Eventbridge
     + Amazon Simple Email Service
     + Amazon SNS
     + AWS WAF web ACL logs
     + Amazon API Gateway - 访问日志
     + Amazon Pinpoint
     + Amazon MSK 代理日志
     + Amazon Route 53 Resolver 查询日志
     + AWS Network Firewall 警报日志
     + AWS Network Firewall 流日志
     + Amazon ElastiCache Redis SLOWLOG
     + Kinesis Agent（linux）
     + Kinesis Tap（windows）
     + Flientbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data Streams**：选择此选项，以配置使用 Kinesis 数据流作为数据来源的 Firehose 流。然后，您可以使用 Firehose 从现有 Kinesis 数据流轻松读取数据，并将其加载到目的地。有关使用 Kinesis Data Streams 作为数据来源的更多信息，请参阅[使用 Kinesis Data Streams 将数据发送到 Firehose](writing-with-kinesis-streams.md)。
   + **Amazon MSK**：选择此选项，以配置使用 Amazon MSK 作为数据来源的 Firehose 流。然后，您可以使用 Firehose，从现有 Amazon MSK 集群轻松读取数据，并将其加载到指定的 S3 存储桶。有关更多信息，请参阅[使用 Amazon MSK 将数据发送到 Firehose 流](writing-with-msk.md)。

1. 从 Firehose 支持的以下目的地之一中为您的 Firehose 流选择一个目的地。
   + Amazon OpenSearch Service
   + Amazon OpenSearch 无服务器
   + Amazon Redshift
   + Amazon S3
   + Apache Iceberg 表
   + Coralogix
   + Datadog
   + Dynatrace
   + 弹性
   + HTTP 端点
   + Honeycomb
   + Logic Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. 对于 **Firehose 流名称**，您可以使用控制台为您生成的名称，也可以添加您选择的 Firehose 流。