翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
送信先設定の設定
このセクションでは、選択した送信先に基づいて Firehose ストリームに設定する必要がある設定について説明します。
トピック
- Amazon S3 の送信先設定を設定する
- Apache Iceberg テーブルの送信先設定を構成する
- Amazon Redshift の送信先設定を設定する
- OpenSearch サービスの送信先設定を設定する
- OpenSearch Serverless の送信先設定を構成する
- Endpoint の送信先設定を設定する HTTP
- Datadog の送信先設定を構成する
- Honeycomb の送信先設定を構成する
- Coralogix の送信先設定を設定する
- Dynatrace の送信先設定を構成する
- の送信先設定の構成 LogicMonitor
- Logz.io の送信先設定を設定する
- MongoDB Cloud の送信先設定の構成
- New Relic の送信先設定を設定する
- Snowflake の送信先設定を構成する
- Splunk の送信先設定を設定する
- Splunk Observability Cloud の送信先設定を設定する
- Sumo Logic の送信先設定を構成する
- Elastic の送信先設定を構成する
Amazon S3 の送信先設定を設定する
Firehose ストリームの送信先として Amazon S3 を使用するには、次の設定を指定する必要があります。
-
以下のフィールドに値を入力します。
- S3 バケット
-
ストリーミングデータの配信先となる、お客様が所有している S3 バケットを選択します。新しい S3 バケットを作成するか、既存のバケットを選択することができます。
- 改行区切り記号
-
Firehose ストリームを設定して、Amazon S3 に配信されるオブジェクト内のレコード間に新しい行区切り文字を追加できます。これを行うには、[[Enabled (有効)] をクリックします。Amazon S3 に配信されるオブジェクトのレコード間に改行区切り文字を追加しない場合は、 [Disabled (無効)] をクリックします。Athena を使用して集計レコードを含む S3 オブジェクトをクエリする場合は、このオプションを有効にします。
- 動的パーティショニング
-
[Enabled (有効)] をクリックして、動的パーティショニングを有効にして設定します。
- マルチレコードのデアグリゲーション
-
これは、Firehose ストリーム内のレコードを解析し、有効な JSON または指定された新しい行区切り文字に基づいてそれらを分離するプロセスです。
複数のイベント、ログ、またはレコードを 1 つの PutRecord および PutRecordBatch API 呼び出しに集約しても、動的パーティショニングを有効にして設定できます。集約データでは、動的パーティショニングを有効にすると、Amazon Data Firehose はレコードを解析し、各API呼び出し内で複数の有効なJSONオブジェクトを検索します。Firehose ストリームが Kinesis Data Stream をソースとして設定されている場合、Kinesis Producer Library () で組み込みの集約を使用することもできますKPL。データパーティション機能は、データが集約解除された後に実行されます。したがって、各API呼び出しの各レコードは、異なる Amazon S3 プレフィックスに配信できます。また、Lambda 関数統合を活用して、データパーティショニング機能の前に他のデアグリゲーションやその他の変換を実行することもできます。
重要
データが集約されている場合、動的パーティショニングは、データの集約解除が実行された後にのみ適用できます。したがって、集約データに対して動的パーティショニングを有効にする場合は、[Enabled (有効)] をクリックして、マルチレコード集約解除を有効にします。
Firehose ストリームは、KPL(protobuf) デアグリゲーション、JSONまたは区切り文字デアグリゲーション、Lambda 処理、データパーティショニング、データ形式変換、Amazon S3 配信の順序で処理ステップを実行します。
- マルチレコードのデアグリゲーションタイプ
-
マルチレコードの集約解除を有効にした場合は、Firehose がデータを集約解除する方法を指定する必要があります。ドロップダウンメニューを使用して、 JSON または区切り を選択します。
- インライン解析
-
これは、Amazon S3 にバインドされたデータの動的パーティショニングを行うためにサポートされているメカニズムの 1 つです。データの動的パーティショニングにインライン解析を使用するには、パーティショニングキーとして使用するデータレコードパラメータを指定し、指定したパーティショニングキーの値を提供する必要があります。[Enabled (有効)] をクリックして、インライン解析を有効にして設定します。
重要
ソースレコードを変換するために上記のステップで AWS Lambda 関数を指定した場合、この関数を使用して S3 にバインドされたデータを動的にパーティション化し、インライン解析を使用してパーティショニングキーを作成できます。動的パーティショニングでは、インライン解析または AWS Lambda 関数を使用してパーティショニングキーを作成できます。または、インライン解析と AWS Lambda 関数の両方を同時に使用して、パーティショニングキーを作成できます。
- 動的パーティショニングキー
-
[キー] および [値] フィールドを使用して、動的パーティションニングキーとして使用するデータレコードパラメータを指定し、動的パーティショニングキーの値を生成するための jq クエリを指定することができますます。Firehose は jq 1.6 のみをサポートしています。最大 50 個の動的パーティショニングキーを指定できます。Firehose ストリームの動的パーティショニングを正常に設定するには、動的パーティショニングキー値に有効な jq 式を入力する必要があります。
- S3 バケットプレフィックス
-
動的パーティショニングを有効にして設定する場合は、Amazon Data Firehose がパーティショニングされたデータを配信する S3 バケットプレフィックスを指定する必要があります。
動的パーティショニングを正しく設定するには、S3 バケットプレフィクスの数が、指定したパーティショニングキーの数と同じである必要があります。
ソースデータは、インライン解析または指定された AWS Lambda 関数でパーティション化できます。ソースデータのパーティショニングキーを作成する Lambda 関数を指定 AWS した場合は、partitionKeyFrom「Lambda:keyID」の形式を使用して S3 バケットプレフィックス値 (複数可) を手動で入力する必要があります。インライン解析を使用してソースデータのパーティショニングキーを指定する場合は、partitionKeyFrom「Query:keyID」の形式を使用して S3 バケットプレビュー値を手動で入力するか、動的パーティショニングキーの適用ボタンを選択して、動的パーティショニングキーと値のペアを使用して S3 バケットプレフィックスを自動的に生成できます。インライン解析または AWS Lambda を使用してデータをパーティション化するときは、S3 バケットプレフィックス !{namespace:value} で次の式フォームを使用することもできます。ここで、名前空間は partitionKeyFromQuery または partitionKeyFromLambda のいずれかになります。
- S3 バケットと S3 エラー出力プレフィックスのタイムゾーン
Amazon S3 オブジェクトのカスタムプレフィックスで日付と時刻に使用するタイムゾーンを選択します。デフォルトでは、Firehose は に時間プレフィックスを追加しますUTC。異なるタイムゾーンを使用する場合は、S3 プレフィックスで使用されるタイムゾーンを変更できます。
- バッファリングヒント
-
Firehose は、受信データを指定された送信先に配信する前にバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
- S3 圧縮
-
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮を選択するか、データ圧縮なしを選択します。Amazon Redshift を送信先とする Firehose ストリームでは、Snappy、Zip、Hadoop 互換の Snappy 圧縮は使用できません。
- S3 ファイル拡張子形式 (オプション)
Amazon S3 送信先バケットに配信されるオブジェクトのファイル拡張形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、Data Format Conversion または .parquet や .gz などの S3 圧縮機能によって追加されたデフォルトのファイル拡張子を上書きします。この機能を Data Format Conversion または S3 圧縮で使用するときは、正しいファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まり、0~9a~z!~_.*‘() の文字を含めることができます。ファイル拡張子は 128 文字を超えることはできません。
- S3 暗号化
Firehose はAmazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有しているキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、AWS KMS「 マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)」を参照してください。
Apache Iceberg テーブルの送信先設定を構成する
宛先としての Apache Iceberg Tables は、米国東部 (バージニア北部)、米国西部 (オレゴン)、欧州 (アイルランド)、アジアパシフィック (東京)、カナダ (中部)、およびアジアパシフィック (シドニー) で利用できます AWS リージョン。
送信先としての Apache Iceberg テーブルの詳細については、「」を参照してくださいAmazon Data Firehose を使用して Apache Iceberg テーブルにデータを配信する。
Amazon Redshift の送信先設定を設定する
このセクションでは、Firehose ストリームの送信先として Amazon Redshift を使用するための設定について説明します。
Amazon Redshift プロビジョンドクラスターまたは Amazon Redshift Serverless ワークグループのどちらを使用しているかに基づき、以下の手順のいずれかを選択します。
-
Amazon Redshift Serverless ワークグループの送信先設定を構成する
注記
Firehose は、拡張VPCルーティングを使用する Amazon Redshift クラスターに書き込むことはできません。
Amazon Redshift プロビジョンドクラスター
このセクションでは、Amazon Redshift プロビジョニングされたクラスターを Firehose ストリームの送信先として使用する設定について説明します。
-
以下のフィールドに値を入力します。
- クラスター
-
S3 バケットデータのコピー先となる Amazon Redshift クラスター。Amazon Redshift クラスターをパブリックにアクセス可能に設定し、Amazon Data Firehose IP アドレスのブロックを解除します。詳細については、「Firehose に Amazon Redshift 送信先へのアクセスを許可する 」を参照してください。
- 認証
-
ユーザー名/パスワードを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Amazon Redshift クラスターにアクセスできます。
-
[ユーザーネーム]
Amazon Redshift クラスターにアクセスする権限を持つ Amazon Redshift ユーザーを指定します。このユーザーには、S3 バケットから Amazon Redshift クラスターにデータをコピーする Amazon Redshift
INSERT
アクセス許可が必要です。 [パスワード]
クラスターにアクセスする権限を持つユーザーのパスワードを指定します。
-
シークレット
Amazon Redshift クラスターの認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、Amazon Redshift 認証情報用に に AWS Secrets Manager シークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
-
- データベース
-
データのコピー先となる Amazon Redshift データベース。
- テーブル
-
データのコピー先となる Amazon Redshift テーブル。
- 列
-
(オプション) データのコピー先となるテーブル内の特定の列。Amazon S3 オブジェクトで定義した列数が Amazon Redshift テーブル内の列数より少ない場合に、このオプションを使用します。
- 中間の S3 送信先
-
Firehose はまず S3 バケットにデータを配信し、Amazon Redshift COPY コマンドを発行して Amazon Redshift クラスターにデータをロードします。ストリーミングデータの配信先となる、お客様が所有している S3 バケットを指定します。新しい S3 バケットを作成するか、お客様が所有する既存のバケットを選択します。
Firehose は、Amazon Redshift クラスターにロードした後、S3 バケットからデータを削除しません。ライフサイクル設定を使用して、S3 バケットでデータを管理できます。詳細については、Amazon Simple Storage Service ユーザーガイドの「オブジェクトのライフサイクルの管理」を参照してください。
- 中間の S3 プレフィックス
-
(オプション) Amazon S3 オブジェクトに対してデフォルトのプレフィックスを使用するには、このオプションを空白のままにします。Firehose は、配信された Amazon S3 オブジェクトのUTC「時間形式
YYYY/MM/dd/HH
」のプレフィックスを自動的に使用します。このプレフィックスの開始に追加できます。詳細については、「Amazon S3 オブジェクト名形式を設定する」を参照してください。 - COPY オプション
-
Amazon Redshift COPY コマンドで指定できるパラメータです。これらのパラメータは、設定に必要になる場合があります。例えば、
GZIP
Amazon S3 データ圧縮が有効になっている場合は」が必要です。S3 バケットが Amazon Redshift クラスターと同じ AWS リージョンにない場合はREGION
」が必要です。詳細については、「Amazon Redshift データベースデベロッパーガイドCOPY」の「」を参照してください。 - COPY コマンド
-
Amazon Redshift COPY コマンド。詳細については、「Amazon Redshift データベースデベロッパーガイドCOPY」の「」を参照してください。
- 再試行の期間
-
Amazon Redshift クラスターへのデータが失敗した場合に Firehose が再試行COPYする時間 (0~7200 秒)。Firehose は、再試行期間が終了するまで 5 分ごとに再試行します。再試行時間を 0 (ゼロ) 秒に設定すると、Firehose はCOPYコマンドの失敗時に再試行しません。
- バッファリングヒント
-
Firehose は、受信データを指定された送信先に配信する前にバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
- S3 圧縮
-
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮を選択するか、データ圧縮なしを選択します。Amazon Redshift を送信先とする Firehose ストリームでは、Snappy、Zip、Hadoop 互換の Snappy 圧縮は使用できません。
- S3 ファイル拡張子形式 (オプション)
S3 ファイル拡張形式 (オプション) — Amazon S3 送信先バケットに配信されるオブジェクトのファイル拡張形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、Data Format Conversion または .parquet や .gz などの S3 圧縮機能によって追加されたデフォルトのファイル拡張子を上書きします。この機能を Data Format Conversion または S3 圧縮で使用するときは、正しいファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まり、0~9a~z!~_.*‘() の文字を含めることができます。ファイル拡張子は 128 文字を超えることはできません。
- S3 暗号化
Firehose はAmazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有しているキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、AWS KMS「 マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)」を参照してください。
Amazon Redshift Serverless ワークグループの送信先設定を構成する
このセクションでは、Amazon Redshift Serverless ワークグループを Firehose ストリームの送信先として使用する設定について説明します。
-
以下のフィールドに値を入力します。
- ワークグループ名
-
S3 バケットデータのコピー先となる Amazon Redshift Serverless ワークグループ。Amazon Redshift Serverless ワークグループがパブリックにアクセスできるように設定し、Firehose IP アドレスのブロックを解除します。詳細については、「Amazon Redshift Serverless への接続」の「パブリックにアクセス可能なときの Amazon Redshift Serverless に接続する」と、「Firehose に Amazon Redshift 送信先へのアクセスを許可する 」を参照してください。
- 認証
-
ユーザー名/パスワードを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Amazon Redshift Serverless ワークグループにアクセスできます。
-
[ユーザーネーム]
Amazon Redshift Serverless ワークグループにアクセスする権限を持つ Amazon Redshift ユーザーを指定します。このユーザーには、S3 バケットから Amazon Redshift Serverless ワークグループにデータをコピーする Amazon Redshift
INSERT
アクセス許可が必要です。 [パスワード]
Amazon Redshift Serverless ワークグループへのアクセス許可を持つユーザーのパスワードを指定します。
-
シークレット
Amazon Redshift Serverless ワークグループの認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、Amazon Redshift 認証情報 AWS Secrets Manager 用に にシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
-
- データベース
-
データのコピー先となる Amazon Redshift データベース。
- テーブル
-
データのコピー先となる Amazon Redshift テーブル。
- 列
-
(オプション) データのコピー先となるテーブル内の特定の列。Amazon S3 オブジェクトで定義した列数が Amazon Redshift テーブル内の列数より少ない場合に、このオプションを使用します。
- 中間の S3 送信先
-
Amazon Data Firehose はまず S3 バケットにデータを配信し、次に Amazon Redshift COPY コマンドを発行して Amazon Redshift Serverless ワークグループにデータをロードします。ストリーミングデータの配信先となる、お客様が所有している S3 バケットを指定します。新しい S3 バケットを作成するか、お客様が所有する既存のバケットを選択します。
Firehose は、Amazon Redshift Serverless ワークグループにロードした後、S3 バケットからデータを削除しません。ライフサイクル設定を使用して、S3 バケットでデータを管理できます。詳細については、Amazon Simple Storage Service ユーザーガイドの「オブジェクトのライフサイクルの管理」を参照してください。
- 中間の S3 プレフィックス
-
(オプション) Amazon S3 オブジェクトに対してデフォルトのプレフィックスを使用するには、このオプションを空白のままにします。Firehose は、配信された Amazon S3 オブジェクトのUTC「時間形式
YYYY/MM/dd/HH
」のプレフィックスを自動的に使用します。このプレフィックスの開始に追加できます。詳細については、「Amazon S3 オブジェクト名形式を設定する」を参照してください。 - COPY オプション
-
Amazon Redshift COPY コマンドで指定できるパラメータです。これらのパラメータは、設定に必要になる場合があります。例えば、Amazon S3 データ圧縮が有効になっている場合は
GZIP
「」が必要です。S3 バケットが Amazon Redshift Serverless ワークグループと同じ AWS リージョンにない場合はREGION
「」が必要です。詳細については、「Amazon Redshift データベースデベロッパーガイドCOPY」の「」を参照してください。 - COPY コマンド
-
Amazon Redshift COPY コマンド。詳細については、「Amazon Redshift データベースデベロッパーガイドCOPY」の「」を参照してください。
- 再試行の期間
-
Amazon Redshift Serverless ワークグループへのデータが失敗した場合、Firehose が再試行COPYする時間 (0~7200 秒)。Firehose は、再試行期間が終了するまで 5 分ごとに再試行します。再試行時間を 0 (ゼロ) 秒に設定すると、Firehose はCOPYコマンドの失敗時に再試行しません。
- バッファリングヒント
-
Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
- S3 圧縮
-
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮を選択するか、データ圧縮なしを選択します。Amazon Redshift を送信先とする Firehose ストリームでは、Snappy、Zip、Hadoop 互換の Snappy 圧縮は使用できません。
- S3 ファイル拡張子形式 (オプション)
S3 ファイル拡張形式 (オプション) — Amazon S3 送信先バケットに配信されるオブジェクトのファイル拡張形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、Data Format Conversion または .parquet や .gz などの S3 圧縮機能によって追加されたデフォルトのファイル拡張子を上書きします。この機能を Data Format Conversion または S3 圧縮で使用するときは、正しいファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まり、0~9a~z!~_.*‘() の文字を含めることができます。ファイル拡張子は 128 文字を超えることはできません。
- S3 暗号化
Firehose はAmazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有しているキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、AWS KMS「 マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)」を参照してください。
OpenSearch サービスの送信先設定を設定する
このセクションでは、送信先に OpenSearch サービスを使用するオプションについて説明します。
-
以下のフィールドに値を入力します。
- OpenSearch サービスドメイン
-
データが配信される OpenSearch サービスドメイン。
- [Index] (インデックス)
-
Service クラスターにデータをインデックス作成するときに使用する OpenSearch Service OpenSearch インデックス名。
- インデックスのローテーション
-
OpenSearch サービスインデックスをローテーションするかどうかと頻度を選択します。インデックスローテーションが有効になっている場合、Amazon Data Firehose は対応するタイムスタンプを指定されたインデックス名に追加し、ローテーションします。詳細については、「Service のインデックスローテーションを設定する OpenSearch 」を参照してください。
- タイプ
-
Service クラスターにデータをインデックス作成するときに使用する OpenSearch Service OpenSearch タイプ名。Elasticsearch 7.x および OpenSearch 1.x では、インデックスごとに 1 つのタイプのみを使用できます。既に別のタイプを持つ既存のインデックスに新しいタイプを指定しようとすると、Firehose はランタイム中にエラーを返します。
Elasticsearch 7.x では、このフィールドは空のままにします。
- 再試行の期間
-
インデックスリクエストが OpenSearch 失敗した場合に Firehose が再試行する時間。この場合、Firehose は再試行期間が終了するまで 5 分ごとに再試行します。再試行時間については、0~7200 秒の任意の値を設定できます。
再試行期間が終了すると、Firehose は設定された S3 エラーバケットである Dead Letter Queue (DLQ) にデータを配信します。に配信されるデータの場合DLQ、設定された S3 エラーバケットから送信 OpenSearch 先にデータを再駆動する必要があります。
OpenSearch クラスターのダウンタイムやメンテナンスDLQが原因で Firehose ストリームが にデータを配信するのをブロックする場合は、再試行期間を秒単位でより高い値に設定できます。AWS サポート
に連絡することで、再試行時間を 7200 秒以上に増やすことができます。 - DocumentID タイプ
-
ドキュメント ID を設定する方法を示します。サポートされているメソッドは、Firehose 生成のドキュメント ID と OpenSearch Service 生成のドキュメント ID です。Firehose が生成するドキュメント ID は、ドキュメント ID 値が設定されていない場合のデフォルトのオプションです。 OpenSearch サービスが生成するドキュメント ID は、ログ分析やオブザーバビリティなどの書き込み負荷の高いオペレーションをサポートし、 OpenSearch サービスドメインで消費するCPUリソースが少ないため、パフォーマンスが向上します。
- 送信先VPC接続
-
OpenSearch サービスドメインがプライベート にある場合はVPC、このセクションを使用してその を指定しますVPC。また、Amazon Data Firehose が OpenSearch サービスドメインにデータを送信するときに使用するサブネットとサブグループを指定します。 OpenSearch サービスドメインが使用しているのと同じセキュリティグループを使用できます。異なるセキュリティグループを指定する場合は、 OpenSearch サービスドメインのセキュリティグループへのアウトバウンドHTTPSトラフィックが許可されていることを確認してください。また、Firehose ストリームの設定時に指定したセキュリティグループからのHTTPSトラフィックが OpenSearch サービスドメインのセキュリティグループで許可されていることを確認してください。Firehose ストリームと OpenSearch サービスドメインの両方に同じセキュリティグループを使用する場合は、セキュリティグループのインバウンドルールでHTTPSトラフィックが許可されていることを確認してください。セキュリティグループルールの詳細については、Amazon VPCドキュメントの「セキュリティグループルール」を参照してください。
重要
プライベート の宛先にデータを配信するためのサブネットを指定する場合はVPC、選択したサブネットに十分な数の空き IP アドレスがあることを確認してください。指定されたサブネットに使用可能な空き IP アドレスがない場合、Firehose はプライベート のデータ配信ENIs用に を作成または追加できずVPC、配信は低下または失敗します。
- バッファのヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
OpenSearch Serverless の送信先設定を構成する
このセクションでは、送信先に OpenSearch Serverless を使用するオプションについて説明します。
-
以下のフィールドに値を入力します。
- OpenSearch サーバーレスコレクション
-
データが配信される OpenSearch サーバーレスインデックスのグループのエンドポイント。
- [Index] (インデックス)
-
OpenSearch Serverless コレクションにデータをインデックス作成するときに使用する OpenSearch Serverless インデックス名。
- 送信先VPC接続
-
OpenSearch Serverless コレクションがプライベート にある場合はVPC、このセクションを使用してその を指定しますVPC。また、Amazon Data Firehose が OpenSearch Serverless コレクションにデータを送信するときに使用するサブネットとサブグループを指定します。
重要
プライベート の宛先にデータを配信するためのサブネットを指定する場合はVPC、選択したサブネットに十分な数の空き IP アドレスがあることを確認してください。指定されたサブネットに使用可能な空き IP アドレスがない場合、Firehose はプライベート のデータ配信ENIs用に を作成または追加できずVPC、配信は低下または失敗します。
- 再試行の期間
-
OpenSearch Serverless へのインデックスリクエストが失敗した場合に Firehose が再試行する時間。この場合、Firehose は再試行期間が終了するまで 5 分ごとに再試行します。再試行時間については、0~7200 秒の任意の値を設定できます。
再試行期間が終了すると、Firehose は設定された S3 エラーバケットである Dead Letter Queue (DLQ) にデータを配信します。に配信されるデータの場合DLQ、設定された S3 エラーバケットから OpenSearch Serverless 送信先にデータを再駆動する必要があります。
OpenSearch Serverless クラスターのダウンタイムまたはメンテナンスDLQが原因で Firehose ストリームが にデータを配信するのをブロックする場合は、再試行期間を秒単位でより高い値に設定できます。AWS サポート
に連絡して、再試行時間を 7200 秒以上に増やすことができます。 - バッファのヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Endpoint の送信先設定を設定する HTTP
このセクションでは、送信先にHTTPエンドポイントを使用するオプションについて説明します。
重要
送信先としてHTTPエンドポイントを選択した場合は、「」の手順を確認して従ってくださいHTTP エンドポイント配信リクエストとレスポンスの仕様を理解する。
-
以下のフィールドに値を入力します。
- HTTP エンドポイント名 - オプション
-
HTTP エンドポイントのわかりやすい名前を指定します。例えば、
My HTTP Endpoint Destination
と指定します。 - HTTP エンドポイント URL
-
HTTP エンドポイントURLの を次の形式で指定します。
https://xyz.httpendpoint.com
は HTTPS URLである必要がありますURL。 - 認証
-
アクセスキーを直接入力するか、 からシークレットを取得 AWS Secrets Manager してHTTPエンドポイントにアクセスできます。
(オプション) アクセスキー
Firehose からエンドポイントへのデータ配信を有効にするためにアクセスキーを取得する必要がある場合は、エンドポイント所有者にお問い合わせください。
-
シークレット
HTTP エンドポイントのアクセスキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、アクセスキー AWS Secrets Manager の にシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待機します。
再試行期間が経過しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
重要
HTTP エンドポイントの送信先で、 CloudWatch ログの送信先エンドポイントから 413 レスポンスコードが表示されている場合は、Firehose ストリームのバッファリングヒントサイズを小さくして、もう一度試してください。
Datadog の送信先設定を構成する
このセクションでは、送信先に Datadog を使用するためのオプションについて説明します。Datadog の詳細については、https://docs.datadoghq.com/integrations/「amazon_web_services/
-
次のフィールドに値を指定します。
- HTTP エンドポイント URL
-
ドロップダウンメニューで、次のいずれかのオプションからデータを送信する場所を選択します。
-
Datadog ログ - US1
-
Datadog ログ - US3
-
Datadog ログ - US5
-
Datadog ログ - AP1
-
Datadog ログ - EU
-
Datadog ログ - GOV
-
Datadog メトリクス - 米国
-
Datadog メトリクス - US5
-
Datadog メトリクス - AP1
-
Datadog メトリクス - EU
-
Datadog 設定 - US1
-
Datadog 設定 - US3
-
Datadog 設定 - US5
-
Datadog 設定 - AP1
-
Datadog 設定 - EU
-
Datadog 設定 - 米国 GOV
-
- 認証
-
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Datadog にアクセスすることもできます。
API キー
Datadog に連絡して、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
Datadog のAPIキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待機します。
再試行期間が経過しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Honeycomb の送信先設定を構成する
このセクションでは、送信先に Honeycomb を使用する方法について説明します。Honeycomb の詳細については、https://docs.honeycom「b.io/getting-data-in/metrics/aws-cloudwatch-metrics/
-
以下のフィールドに値を入力します。
- Honeycomb Kinesis エンドポイント
-
HTTP エンドポイントURLの を次の形式で指定します: https://api.honeycomb.io/1/kinesis_events/{{dataset}}
- 認証
-
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Honeycomb にアクセスできます。
API キー
Honeycomb に連絡して、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
Honeycomb のAPIキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。リクエストのコンテンツエンコードを有効にするかどうかGZIPを選択します。こちらは、Honeycomb が送信先である場合に推奨される方法です。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待機します。
再試行期間が経過しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Coralogix の送信先設定を設定する
このセクションでは、送信先に Coralogix を使用する方法について説明します。Coralogix の詳細については、「Coralogix の開始方法
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
ドロップダウンメニューの次のオプションURLからHTTPエンドポイントを選択します。
-
Coralogix - 米国
-
Coralogix - SINGAPORE
-
Coralogix - IRELAND
-
Coralogix - INDIA
-
Coralogix - STOCKHOLM
-
- 認証
-
プライベートキーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Coralogix にアクセスできます。
プライベートキー
Coralogix に連絡して、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なプライベートキーを取得します。
-
シークレット
Coralogix のプライベートキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。リクエストのコンテンツエンコードを有効にするかどうかGZIPを選択します。こちらは、Coralogix が送信先である場合に推奨される方法です。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待機します。
再試行期間が経過しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
-
applicationName: Data Firehose を実行している環境
-
subsystemName: Data Firehose 統合の名前
-
computerName: 使用中の Firehose ストリームの名前
-
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Dynatrace の送信先設定を構成する
このセクションでは、送信先に Dynatrace を使用するためのオプションについて説明します。詳細については、https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch「-metric-streams/
-
Firehose ストリームの送信先として Dynatrace を使用するオプションを選択します。
- 取り込みタイプ
-
詳細な分析と処理のために Dynatrace でメトリクスまたはログ (デフォルト) を配信するかどうかを選択します。
- HTTP エンドポイント URL
-
ドロップダウンメニューからHTTPエンドポイント URL (Dynatrace US 、Dynatrace EU 、または Dynatrace Global ) を選択します。
- 認証
-
API トークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Dynatrace にアクセスするかを選択できます。
API トークン
Firehose からこのエンドポイントへのデータ配信を有効にするために必要な Dynatrace APIトークンを生成します。詳細については、Dynatrace API - トークンと認証
を参照してください。 -
シークレット
Dynatrace のAPIトークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- API URL
-
Dynatrace 環境APIURLの を指定します。
- コンテンツのエンコーディング
-
リクエストの本文を圧縮するためにコンテンツエンコーディングを有効にするかどうかを選択します。Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。有効にすると、圧縮したコンテンツは GZIP形式で圧縮されます。
- 再試行の期間
-
Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する時間を指定します。
データの送信後、Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Firehose はこれをデータ配信の失敗と見なし、Amazon S3 バケットにデータをバックアップします。
Firehose が最初の試行中または再試行後にデータをHTTPエンドポイントに送信するたびに、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待機します。
再試行期間が経過しても、Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Firehose がデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。バッファヒントには、ストリームのバッファサイズと間隔が含まれます。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
の送信先設定の構成 LogicMonitor
このセクションでは、LogicMonitor送信先で を使用するためのオプションについて説明します。詳細については、「」を参照してくださいhttps://www.logicmonitor.com
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
HTTP エンドポイントURLの を次の形式で指定します。
https://ACCOUNT.logicmonitor.com
- 認証
-
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して にアクセスできます LogicMonitor。
API キー
LogicMonitor に連絡して、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
のAPIキー AWS Secrets Manager を含むシークレットを から選択します LogicMonitor。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待機します。
再試行期間が経過しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Logz.io の送信先設定を設定する
このセクションでは、送信先に Logz.io を使用する方法について説明します。詳細については、https://logz.io/
注記
欧州 (ミラノ) リージョンでは、Logz.io は Amazon Data Firehose の送信先としてサポートされていません。
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
HTTP エンドポイントURLの を次の形式で指定します。は
HTTPS
URLである必要がありますURL。https://listener-aws-metrics-stream-<region>.logz.io/
例
https://listener-aws-metrics-stream-us.logz.io/
- 認証
-
Logz.io AWS Secrets Manager にアクセスするには、配送トークンを直接入力するか、 からシークレットを取得することができます。
-
配送トークン
Firehose からこのエンドポイントへのデータ配信を有効にするために必要な配送トークンを取得するには、Logz.io にお問い合わせください。
-
シークレット
Logz.io の配送トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
-
- 再試行の期間
-
Amazon Data Firehose が Logz.io へのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待機します。
再試行期間が経過しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
MongoDB Cloud の送信先設定の構成
このセクションでは、送信先に MongoDB Cloud を使用するためのオプションについて説明します。詳細については、「」を参照してくださいhttps://www.mongodb.com
-
以下のフィールドに値を入力します。
- MongoDB Realm ウェブフック URL
-
HTTP エンドポイントURLの を次の形式で指定します。
https://webhooks.mongodb-realm.com
は
HTTPS
URLである必要がありますURL。 - 認証
-
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して MongoDB Cloud にアクセスするかを選択できます。
API キー
MongoDB Cloud に連絡して、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
MongoDB Cloud のAPIキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が選択したサードパーティープロバイダーへのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待機します。
再試行期間が経過しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
New Relic の送信先設定を設定する
このセクションでは、送信先に New Relic を使用するためのオプションについて説明します。詳細については、「」を参照してくださいhttps://newrelic.com
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
ドロップダウンリストから次のオプションURLからHTTPエンドポイントを選択します。
-
New Relic ログ - 米国
-
New Relic メトリクス - 米国
-
New Relic メトリクス - EU
-
- 認証
-
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して New Relic にアクセスするかを選択できます。
API キー
New Relic One アカウント設定から、40 文字の 16 進数の文字列であるライセンスキーを入力します。Firehose からこのエンドポイントへのデータ配信を有効にするには、このAPIキーが必要です。
-
シークレット
New Relic のAPIキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは を無効にします。
- 再試行の期間
-
Amazon Data Firehose が New Relic HTTPエンドポイントへのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待ちます。
再試行期間が終了しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Snowflake の送信先設定を構成する
このセクションでは、送信先に Snowflake を使用するオプションについて説明します。
注記
Snowflake との Firehose 統合は、米国東部 (バージニア北部)、米国西部 (オレゴン)、欧州 (アイルランド)、米国東部 (オハイオ)、アジアパシフィック (東京)、欧州 (フランクフルト)、アジアパシフィック (シンガポール)、アジアパシフィック (ソウル)、およびアジアパシフィック (シドニー)、アジアパシフィック (ムンバイ)、欧州 (ロンドン)、南米 (サンパウロ)、カナダ (中部)、欧州 (パリ)、アジアパシフィック (大阪)、欧州 (ストックホルム)、アジアパシフィック (ジャカルタ) で利用できます AWS リージョン。
接続設定
-
以下のフィールドに値を入力します。
- Snowflake アカウント URL
-
Snowflake アカウント を指定しますURL。例:
xy12345.us-east-1.aws.snowflakecomputing.com
。アカウントを決定する方法については、Snowflake のドキュメントを参照してくださいURL。ポート番号を指定する必要はありませんが、プロトコル (https://) はオプションです。 - 認証
-
ユーザーログイン、プライベートキー、パスフレーズを手動で入力するか、 からシークレットを取得 AWS Secrets Manager して Snowflake にアクセスするかを選択できます。
-
ユーザーログイン
データのロードに使用する Snowflake ユーザーを指定します。ユーザーに Snowflake テーブルにデータを挿入するためのアクセス権があることを確認します。
-
プライベートキー
Snowflake による認証のプライベートキーを
PKCS8
形式で指定します。さらに、プライベートキーの一部としてPEMヘッダーとフッターを含めないでください。キーが複数の行に分割されている場合は、改行を削除します。以下は、プライベートキーがどのようなものになるかの例です。-----BEGIN PRIVATE KEY----- KEY_CONTENT -----END PRIVATE KEY-----
のスペースを削除
KEY_CONTENT
し、Firehose に渡します。ヘッダー/フッターや改行文字は必要ありません。 パスフレーズ
暗号化されたプライベートキーを復号するパスフレーズを指定します。プライベートキーが暗号化されていない場合は、このフィールドを空のままにすることができます。詳細については、「 キーペア認証とキーローテーションの使用
」を参照してください。 -
シークレット
Snowflake の認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
-
- ロール設定
-
デフォルトの Snowflake ロールを使用する – このオプションが選択されている場合、Firehose は Snowflake にロールを渡しません。デフォルトのロールはデータをロードすると仮定されます。デフォルトのロールに Snowflake テーブルにデータを挿入するアクセス許可があることを確認してください。
カスタム Snowflake ロールを使用する – Snowflake テーブルにデータをロードするときに Firehose が引き受けるデフォルト以外の Snowflake ロールを入力します。
- Snowflake 接続
-
オプションはプライベートまたはパブリック です。
- プライベート VPCE ID (オプション)
-
Firehose が Snowflake とプライベートに接続する VPCE ID。ID 形式は com.amazonaws.vpce.[region].vpce-svc- です。
[id]
。 詳細については、AWS PrivateLink 「」および「Snowflake」を参照してください。 注記
Snowflake ネットワークが Firehose へのアクセスを許可していることを確認します。ベースのネットワークポリシーがすでに有効になっている場合は、Snowflake アカウントの IP
AwsVpceIds
ベースのネットワークポリシーをオフにすることをお勧めします。Snowflake で IP ベースのネットワークポリシーを有効にすると、Firehose データトラフィックがブロックされる可能性があります。IP ベースのポリシーを必要とするエッジケースがある場合は、サポートチケットを送信して Firehose チームにお問い合わせください。使用できる のリストについては、VPCEIDs「」を参照してくださいでの Snowflake へのアクセス VPC。
データベース設定
-
Snowflake を Firehose ストリームの送信先として使用するには、次の設定を指定する必要があります。
-
Snowflake データベース — Snowflake のすべてのデータはデータベースに保持されます。
-
Snowflake スキーマ – 各データベースは 1 つ以上のスキーマで構成され、テーブルやビューなどのデータベースオブジェクトの論理グループです。
-
Snowflake テーブル – Snowflake のすべてのデータはデータベーステーブルに保存され、列と行のコレクションとして論理的に構造化されます。
-
Snowflake テーブルのデータロードオプション
-
JSON キーを列名として使用する
VARIANT 列を使用する
コンテンツ列名 – テーブル内の列名を指定します。ここでは、生データをロードする必要があります。
メタデータ列名 (オプション) – メタデータ情報をロードする必要があるテーブル内の列名を指定します。
再試行の期間
Snowflake サービスの問題により、チャンネルを開くか Snowflake への配信に失敗した場合、Firehose が再試行する時間 (0~7200 秒)。Firehose は、再試行期間が終了するまで、指数バックオフを使用して再試行します。再試行時間を 0 (ゼロ) 秒に設定すると、Firehose は Snowflake の障害時に再試行せず、データを Amazon S3 エラーバケットにルーティングします。
バッファヒント
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。詳細については、「バッファリングヒントを設定する」を参照してください。
Splunk の送信先設定を設定する
このセクションでは、送信先に Splunk を使用するためのオプションについて説明します。
注記
Firehose は、Classic Load Balancer または Application Load Balancer で設定された Splunk クラスターにデータを配信します。
-
以下のフィールドに値を入力します。
- Splunk クラスターエンドポイント
-
エンドポイントを決定するには、Splunk ドキュメントの「Amazon Data Firehose を設定して Splunk プラットフォームにデータを送信する
」を参照してください。 - Splunk エンドポイントタイプ
-
ほとんどの場合は
Raw endpoint
を選択します。を使用してデータを前処理 AWS Lambda し、イベントタイプ別に異なるインデックスにデータを送信するEvent endpoint
かどうかを選択します。使用するエンドポイントの詳細については、Splunk ドキュメントの「Amazon Data Firehose を設定して Splunk プラットフォームにデータを送信する」を参照してください。 - 認証
-
認証トークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Splunk にアクセスすることもできます。
認証トークン
Amazon Data Firehose からデータを受信できる Splunk エンドポイントを設定するには、Splunk ドキュメントの「Splunk Add-on for Amazon Data Firehose のインストールと設定の概要
」を参照してください。この Firehose ストリームのエンドポイントをセットアップするときに Splunk から取得したトークンを保存し、ここに追加します。 -
シークレット
Splunk の認証トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- HEC 確認タイムアウト
-
Amazon Data Firehose が Splunk からのインデックス確認を待機する時間を指定します。タイムアウトに達する前に Splunk が確認を送信しない場合、Amazon Data Firehose はそれをデータ配信の失敗と見なします。次に、Amazon Data Firehose は、設定した再試行期間の値に応じて、データを Amazon S3 バケットに再試行またはバックアップします。
- 再試行の期間
-
Amazon Data Firehose が Splunk へのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまず Splunk からの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がデータを Splunk に送信するたびに (最初の試行または再試行のいずれか)、確認タイムアウトカウンターを再起動し、Splunk からの確認応答を待ちます。
再試行期間が終了しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Splunk Observability Cloud の送信先設定を設定する
このセクションでは、送信先に Splunk Observability Cloud を使用する方法について説明します。詳細については、https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws「-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api
-
以下のフィールドに値を入力します。
- クラウド取り込みエンドポイント URL
-
Splunk Observability Cloud のリアルタイムデータ取り込みは、Splunk Observability コンソールURLのプロファイル > 組織 > リアルタイムデータ取り込みエンドポイントで確認できます。
- 認証
-
アクセストークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Splunk Observability Cloud にアクセスすることもできます。
アクセストークン
Splunk Observability コンソールの設定で、アクセストークンから INGEST Splunk Observability アクセストークンを承認範囲にコピーします。
-
シークレット
Splunk Observability Cloud のアクセストークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。GZIP または Disabled を選択して、リクエストのコンテンツエンコーディングを有効または無効にします。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターを再起動し、HTTPエンドポイントからの確認を待ちます。
再試行期間が終了しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Sumo Logic の送信先設定を構成する
このセクションでは、送信先に Sumo Logic を使用するためのオプションについて説明します。詳細については、「」を参照してくださいhttps://www.sumologic.com
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
HTTP エンドポイントURLの を次の形式で指定します。
https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token
は HTTPS URLである必要がありますURL。 - コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が Sumo Logic へのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がデータをHTTPエンドポイントに送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認が待機します。
再試行期間が終了しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。Elastic を送信先とする場合の推奨のバッファサイズは、サービスプロバイダーに応じて異なります。
Elastic の送信先設定を構成する
このセクションでは、送信先に Elastic を使用する方法について説明します。
-
以下のフィールドに値を入力します。
- Elastic エンドポイント URL
-
HTTP エンドポイントURLの を次の形式で指定します。
https://<cluster-id>.es.<region>.aws.elastic-cloud.com
は HTTPS URLである必要がありますURL。 - 認証
-
Elastic AWS Secrets Manager にアクセスするには、 API キーを直接入力するか、 からシークレットを取得するかを選択できます。
API キー
Elastic に連絡して、Firehose からサービスへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
Elastic のAPIキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 にシークレットを作成します AWS Secrets Manager。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、コンテンツエンコーディングを使用して、送信先に送信する前にリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIP (デフォルトで選択されている) または Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が Elastic へのデータ送信を再試行する時間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認が確認タイムアウト期間内に到着しない場合、Amazon Data Firehose は再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はこれをデータ配信の失敗と見なし、データを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がデータをHTTPエンドポイントに送信するたびに (最初の試行または再試行)、確認タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認が待機します。
再試行期間が終了しても、Amazon Data Firehose は確認を受け取るか、確認タイムアウト期間に達するまで確認を待機します。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターに残り時間があるかどうかを判断します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose には、各HTTP呼び出しにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングヒント
-
Amazon Data Firehose は、指定された送信先に配信する前に受信データをバッファします。Elastic の送信先の推奨バッファサイズは 1 MiB です。