送信先設定 - Amazon Kinesis Data Firehose

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

送信先設定

このトピックでは、配信ストリームの送信先設定について説明します。

送信先に Amazon S3 を選択します。

Kinesis Data Firehose 配信ストリームの送信先として Amazon S3 を使用するには、次の設定を指定する必要があります。

  • 以下のフィールドに値を入力します。

    S3 バケット

    ストリーミングデータの配信先となる、お客様が所有している S3 バケットを選択します。新しい S3 バケットを作成するか、既存のバケットを選択することができます。

    S3 バケットプレフィックス - オプション

    動的パーティショニングを有効にしない場合、これはオプションのフィールドです。動的パーティショニングを有効にする場合は、エラー状態で Amazon S3 にデータを配信するときに Kinesis Data Firehose で使用する S3 エラーバケットプレフィックスを指定しなければなりません。Kinesis Data Firehose が受信データの動的パーティショニングを行えなかった場合、それらのデータレコードはこの S3 エラーバケットプレフィックスに配信されます。詳細については、「Amazon S3 オブジェクト名の形式」および「Amazon S3 オブジェクトのカスタムプレフィックス」を参照してください。

    動的パーティショニング

    [Enabled (有効)] をクリックして、動的パーティショニングを有効にして設定します。

    マルチレコード集約解除

    これは、配信ストリーム内のレコードを解析し、有効な JSON または指定された改行区切り文字に基づいてレコードを分離するプロセスです。

    複数のイベント、ログ、またはレコードを 1 つのイベントやログ、またはレコードを 1 つのグループに集約する場合 PutRecord そして PutRecordBatch API コールでも、動的パーティショニングを有効にして設定できます。集約データでは、動的パーティショニングを有効にすると、Kinesis Data Firehose はレコードを解析し、各 API コール内で複数の有効な JSON オブジェクトを検索します。配信ストリームがソースとして Kinesis Data Stream で設定されている場合、Kinesis Producer Library (KPL) の組み込み集約を使用することもできます。データパーティション機能は、データが集約解除された後に実行されます。したがって、各 API コールの各レコードを異なる Amazon S3 プレフィックスに配信できます。また、Lambda 関数の統合を活用して、データパーティショニング機能の前に、その他の集約解除やその他の変換を実行することもできます。

    重要

    データが集約されている場合、動的パーティショニングは、データの集約解除が実行された後にのみ適用できます。したがって、集約データに対して動的パーティショニングを有効にする場合は、[Enabled (有効)] をクリックして、マルチレコード集約解除を有効にします。

    Kinesis Data Firehose 配信ストリームは、次の処理手順を次の順序で実行します。KPL (protobuf) の集約解除、JSON または区切り文字の集約解除、Lambda 処理、データパーティショニング、データ形式変換、Amazon S3 配信です。

    マルチレコード集約解除のタイプ

    マルチレコード集約解除を有効にした場合、Kinesis Data Firehose でデータを集約解除する方法を指定する必要があります。ドロップダウンメニューから [JSON] または [Delimited (区切り)] をクリックします。

    改行区切り記号

    動的パーティションニングを有効にすると、Amazon S3 に配信されるオブジェクトのレコード間に改行区切り記号を追加するように配信ストリームを設定できます。これを行うには、[[Enabled (有効)] をクリックします。Amazon S3 に配信されるオブジェクトのレコード間に改行区切り文字を追加しない場合は、 [Disabled (無効)] をクリックします。

    インライン解析

    これは、Amazon S3 にバインドされたデータの動的パーティショニングを行うためにサポートされているメカニズムの 1 つです。データの動的パーティショニングにインライン解析を使用するには、パーティショニングキーとして使用するデータレコードパラメータを指定し、指定したパーティショニングキーの値を提供する必要があります。[Enabled (有効)] をクリックして、インライン解析を有効にして設定します。

    重要

    ソースレコードを変換するための上記の手順で AWS Lambda 関数を指定した場合、この関数を使用して、S3 にバインドされたデータの動的パーティショニングを行い、インライン解析を使用してパーティショニングキーを作成できます。動的パーティションニングでは、インライン解析または AWS Lambda 関数を使用して、パーティショニングキーを作成します。あるいは、インライン解析と AWS Lambda 関数を同時に使用して、パーティショニングキーを作成できます。

    動的パーティショニングキー

    [キー] および [] フィールドを使用して、動的パーティションニングキーとして使用するデータレコードパラメータを指定し、動的パーティショニングキーの値を生成するための jq クエリを指定することができますます。Kinesis Data Firehose では jq 1.6 のみをサポートしています。最大 50 個の動的パーティショニングキーを指定できます。配信ストリームの動的パーティショニングを正常に設定するには、動的パーティショニングキーの値に有効な jq 式を入力する必要があります。

    S3 バケットプレフィックス

    動的パーティショニングを有効にして設定する場合は、Kinesis Data Firehose がパーティション化されたデータを配信する S3 バケットプレフィックスを指定する必要があります。

    動的パーティショニングを正しく設定するには、S3 バケットプレフィクスの数が、指定したパーティショニングキーの数と同じである必要があります。

    ソースデータは、インライン解析または指定した AWS Lambda 関数を用いてパーティショニングできます。ソースデータのパーティショニングキーを作成するために AWS Lambda 関数を指定した場合、「partitionKeyFromLambda:keyID」の形式を使用して S3 バケットプレフィックス値を手動で入力する必要があります。インライン解析を使用してソースデータのパーティショニングキーを指定する場合は、「partitionKeyFromQuery:keyID」の形式を使用して S3 バケットプレビューの値を手動で入力するか、[動的パーティショニングキーの適用] ボタンをクリックし、動的パーティショニングキーと値のペアを使用して S3 バケットプレフィックスを自動生成することができます。インライン解析または AWS Lambdaのいずれかを用いてデータのパーティショニングを行うときに、S3 バケットプレフィックスで次の式フォームを使用することもできます: !{namespace:value}、ここで名前空間は partitionKeyFromQuery または partitionKeyFromLambda のいずれかになります。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

    S3 の圧縮と暗号化

    GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮、またはデータ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を送信先とする配信ストリームには使用できません。

    Kinesis Data Firehose は、Amazon S3 に配信されたデータを暗号化するために、AWS Key Management Service (AWS KMS) を用いて Amazon S3 サーバー側の暗号化をサポートします。データを暗号化しない選択や、お客様が所有している AWS KMS キーのリストのキーを使用した暗号化の選択が可能です。詳細については、「AWS KMS マネジージドキーによるサーバー側の暗号化 (SSE-KMS) を使用したデータの保護」を参照してください。

送信先に Amazon Redshift を選択する

このセクションでは、配信ストリームの送信先として Amazon Redshift を使用するための設定について説明します。

  • 以下のフィールドに値を入力します。

    クラスター

    S3 バケットデータのコピー先となる Amazon Redshift クラスター。Amazon Redshift クラスターをパブリックアクセス可能に設定し、Kinesis Data Firehose の IP アドレスをブロック解除します。詳細については、「Amazon Redshift の送信先へのアクセス権を Kinesis Data Firehose に付与する 」を参照してください。

    User name

    Amazon Redshift クラスターへのアクセス許可がある Amazon Redshift ユーザー。このユーザーには、S3 バケットから Amazon Redshift クラスターにデータをコピーする Amazon Redshift INSERT アクセス許可が必要です。

    [Password] (パスワード)

    クラスターへのアクセス許可を持つユーザーのパスワード。

    データベース

    データのコピー先となる Amazon Redshift データベース。

    テーブル

    データのコピー先となる Amazon Redshift テーブル。

    [Columns] (列)

    (オプション) データのコピー先となるテーブル内の特定の列。Amazon S3 オブジェクトで定義した列数が Amazon Redshift テーブル内の列数より少ない場合に、このオプションを使用します。

    中間の S3 送信先

    Kinesis Data Firehose は最初にデータを S3 バケットに配信してから、Amazon Redshift COPY コマンドを発行してデータを Amazon Redshift クラスターにロードします。ストリーミングデータの配信先となる、お客様が所有している S3 バケットを指定します。新しい S3 バケットを作成するか、お客様が所有する既存のバケットを選択します。

    Kinesis Data Firehose は、Amazon Redshift クラスターにロードした後で S3 バケットからデータを削除することはしません。ライフサイクル設定を使用して、S3 バケットでデータを管理できます。詳細については、Amazon Simple Storage Service ユーザーガイドの「オブジェクトのライフサイクルの管理」を参照してください。

    中間の S3 プレフィックス

    (オプション) Amazon S3 オブジェクトに対してデフォルトのプレフィックスを使用するには、このオプションを空白のままにします。Kinesis Data Firehose は、Amazon S3 オブジェクトに提供された "YYYY/MM/dd/HH" UTC 時間形式をプレフィックスで自動的に使用する点に注意してください。このプレフィックスの開始に追加できます。詳細については、「Amazon S3 オブジェクト名の形式」を参照してください。

    COPY オプション

    Amazon Redshift COPY コマンドで指定できるパラメータです。これらのパラメータは、設定に必要になる場合があります。たとえば、Amazon S3 データ圧縮が有効な場合は、"GZIP" が必要です。S3 バケットが Amazon Redshift クラスターと同じ AWS リージョンにない場合は、"REGION" が必要です。詳細については、Amazon Redshift データベース開発者ガイドの「COPY」を参照してください。

    COPY コマンド

    Amazon Redshift COPY コマンド。詳細については、Amazon Redshift データベース開発者ガイドの「COPY」を参照してください。

    再試行の期間

    Amazon Redshift クラスターへのデータ COPY が失敗した場合に Kinesis Data Firehose が再試行する時間 (0~7200 秒)です。Kinesis Data Firehose は再試行の期間が終了するまで 5 分ごとに再試行します。再試行の期間を 0 (ゼロ) 秒に設定した場合、Kinesis Data Firehose は COPY コマンドが失敗しても再試行しません。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

    S3 の圧縮と暗号化

    [GZIP] または [データ圧縮なし] を選択します。

    Kinesis Data Firehose は、Amazon S3 に配信されたデータを暗号化するために、AWS Key Management Service (AWS KMS) を用いて Amazon S3 サーバー側の暗号化をサポートします。データを暗号化しない選択や、お客様が所有している AWS KMS キーのリストのキーを使用した暗号化の選択が可能です。詳細については、「AWS KMS マネジージドキーによるサーバー側の暗号化 (SSE-KMS) を使用したデータの保護」を参照してください。

選択 OpenSearch 送信先にサービス

このセクションでは、を使用するためのオプションについて説明します。 OpenSearch 送信先にサービス。

  • 以下のフィールドに値を入力します。

    OpenSearch Service ドメイン

    - OpenSearch データの配信先となるサービスドメイン。

    [Index] (インデックス)

    - OpenSearch データのインデックスを作成するときに使用するサービスインデックス名 OpenSearch サービスクラスター。

    インデックスのローテーション

    送信するかどうかと、その頻度を選択する OpenSearch サービスインデックスをローテーションする必要があります。インデックスのローテーションが有効になっている場合、Kinesis Data Firehose は指定されたインデックス名に対応するタイムスタンプを追加し、ローテーションします。詳細については、「[] のインデックスのローテーションOpenSearchサービスの送信先」を参照してください。

    [Type] (タイプ)

    - OpenSearch データのインデックスを作成するときに使用するサービスタイプ名 OpenSearch サービスクラスター。Elasticsearch 7.x と OpenSearch 1.x の場合、インデックスあたりのタイプ数は 1 つのみです。すでに別のタイプを持つ既存のインデックスに新しいタイプを指定しようとすると、Kinesis Data Firehose はランタイム時にエラーを戻します。

    Elasticsearch 7.x では、このフィールドは空のままにします。

    再試行の期間

    に対してインデックスリクエストがあった場合に Kinesis Data Firehose が再試行する時間 (0~7200 秒)。 OpenSearch サービスクラスタが失敗します。Kinesis Data Firehose は再試行の期間が終了するまで 5 分ごとに再試行します。再試行期間を 0 (ゼロ) 秒に設定した場合、Kinesis Data Firehose はインデックスリクエストが失敗しても再試行しません。

    送信先 VPC 接続

    もしあなたの OpenSearch Service ドメインはプライベート VPC 内にある場合は、このセクションを使用してその VPC を指定します。また、OpenSearch Service ドメインにデータを送信するときに Kinesis Data Firehose で使用するサブネットとサブグループも指定します。doma と同じセキュリティグループを使用できる OpenSearch Servicein の使用または異なるもの。別のセキュリティグループを指定する場合は、そのセキュリティグループで、へのアウトバウンド HTTPS トラフィックを必ず許可します。 OpenSearch サービスドメインのセキュリティグループ。また、 OpenSearch サービスドメインのセキュリティグループでは、配信ストリームの設定時に指定したセキュリティグループからの HTTPS トラフィックを必ず許可します。配信ストリームと、配信ストリームの両方に同じセキュリティグループを使用する場合 OpenSearch Service ドメイン。セキュリティグループのインバウンドルールで HTTPS トラフィックを必ず許可します。セキュリティグループのルールの詳細については、Amazon VPCドキュメントの「セキュリティグループのルール」を参照してください。

    バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

送信先に HTTP エンドポイントを選択する

このセクションでは、送信先に HTTP エンドポイントを使用するためのオプションについて説明します。

重要

HTTP エンドポイントを送信先として選択した場合は、付録 - HTTP エンドポイント配信リクエストとレスポンスの仕様 の手順を確認して従ってください。

  • 以下のフィールドに値を入力します。

    HTTP エンドポイント名 - オプション

    HTTP エンドポイントのわかりやすい名前を指定します。例えば、My HTTP Endpoint Destination

    HTTP エンドポイント URL

    HTTP エンドポイントの URL を次の形式で指定します: https://xyz.httpendpoint.com。 URL は HTTPS URL であることが必要です。

    アクセスキー - オプション

    エンドポイントの所有者に連絡して、Kinesis Data Firehose からエンドポイントへのデータ配信を有効にするためのアクセスキー (必要な場合) を取得します。

    コンテンツのエンコーディング

    Kinesis Data Firehose は、リクエストを送信先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[GZIP] または [Disabled (無効)] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。

    再試行の期間

    選択された HTTP エンドポイントへのデータの送信を Kinesis Data Firehose が再試行する時間を指定します。

    データの送信後、Kinesis Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、HTTP エンドポイントからの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

    Parameters - オプション

    Kinesis Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

    重要

    HTTP エンドポイントの送信先で、宛先エンドポイントからの 413 のレスポンスコードが表示される場合は、 CloudWatch ログ、配信ストリームのバッファリングヒントサイズを小さくして、もう一度試してください。

送信先に Datadog を選択する

このセクションでは、送信先に Datadog を使用するためのオプションについて説明します。Datadog の詳細については、「https://docs.datadoghq.com/integrations/amazon_web_services/」を参照してください。

  • 以下のフィールドに値を入力します。

    HTTP エンドポイント URL

    ドロップダウンメニューの次のオプションから HTTP エンドポイント URL を選択します。

    • Datadog ログ - 米国

    • Datadog ログ - EU

    • Datadog ログ - GOV

    • Datadog メトリクス - 米国

    • Datadog メトリクス - EU

    API キー

    Datadog に連絡して、Kinesis Data Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。

    コンテンツのエンコーディング

    Kinesis Data Firehose は、リクエストを送信先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[GZIP] または [Disabled (無効)] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。

    再試行の期間

    選択された HTTP エンドポイントへのデータの送信を Kinesis Data Firehose が再試行する時間を指定します。

    データの送信後、Kinesis Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、HTTP エンドポイントからの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

    Parameters - オプション

    Kinesis Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

送信先にハニカムを選択する

このセクションでは、を使用するためのオプションについて説明します。ハニカム送信先にに。ハニカムの詳細については、「」を参照してください。https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/

  • 以下のフィールドに値を入力します。

    ハニカムKinesis エンドポイント

    HTTP エンドポイントの URL を次の形式で指定します:https://api.honeycomb.io/1/kinesis_events/{{dataset}}

    API キー

    ハニカムに連絡して、Kinesis Data Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。

    コンテンツのエンコーディング

    Kinesis Data Firehose は、リクエストを送信先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。選択GZIPリクエストのコンテンツエンコーディングを有効にします。ハニカム送信先にこれが推奨されるオプションです。

    再試行の期間

    選択された HTTP エンドポイントへのデータの送信を Kinesis Data Firehose が再試行する時間を指定します。

    データの送信後、Kinesis Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、HTTP エンドポイントからの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

    Parameters - オプション

    Kinesis Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

送信先に Coralogix を選択する

このセクションでは、を使用するためのオプションについて説明します。Coralogix送信先にに。Coralogix の詳細については、「」を参照してください。https://coralogix.com/integrations/aws-firehose

  • 以下のフィールドに値を入力します。

    HTTP エンドポイント URL

    ドロップダウンメニューの次のオプションから HTTP エンドポイント URL を選択します。

    • Coralogix-米国

    • Coralogix-シンガポール

    • Coralogix-アイルランド

    • Coralogix-インド

    • Coralogix-ストックホルム

    プライベートキー

    Coralogix に連絡して、Kinesis Data Firehose からこのエンドポイントへのデータ配信を有効にするために必要な秘密キーを取得します。

    コンテンツのエンコーディング

    Kinesis Data Firehose は、リクエストを送信先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。選択GZIPリクエストのコンテンツエンコーディングを有効にします。Coralogix 送信先にこれが推奨されるオプションです。

    再試行の期間

    選択された HTTP エンドポイントへのデータの送信を Kinesis Data Firehose が再試行する時間を指定します。

    データの送信後、Kinesis Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、HTTP エンドポイントからの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

    Parameters - オプション

    Kinesis Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

    • applicationName: Data Firehose を実行している環境

    • SubsystemName: データファイアホース統合の名前

    • ComputerName: 使用中の配信ストリームの名前

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

送信先に Dynatrace を選択する

このセクションでは、送信先に Dynatrace を使用するためのオプションについて説明します。詳細については、「https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/」を参照してください。

  • 以下のフィールドに値を入力します。

    HTTP エンドポイント URL

    ドロップダウンメニューから、HTTP エンドポイント URL (Dynatrace USDynatrace EU、またはDynatrace Global) を選択します。

    API トークン

    Kinesis Data Firehose からのデータ配信に必要な Dynatrace API トークンを生成します。詳細については、「https://www.dynatrace.com/support/help/dynatrace-api/basics/dynatrace-api-authentication/」を参照してください。

    API URL

    Dynatrace 環境の API URL を指定します。

    コンテンツのエンコーディング

    Kinesis Data Firehose は、リクエストを送信先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[GZIP] または [Disabled (無効)] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。

    再試行の期間

    選択された HTTP エンドポイントへのデータの送信を Kinesis Data Firehose が再試行する時間を指定します。

    データの送信後、Kinesis Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、HTTP エンドポイントからの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

    Parameters - オプション

    Kinesis Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

    重要

    Dynatrace を指定したターゲットとして使用する場合は、少なくとも 1 つのパラメータキーと値のペアを指定する必要があります。このキー dt-url の名前を付け、その値を Dynatrace 環境の URL (たとえば、https://xyzab123456.dynatrace.live.com) に設定する必要があります。オプションで、追加のパラメータキーと値のペアを指定して、選択したカスタム名と値に設定できます。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

選択 LogicMonitor 送信先に

このセクションでは、送信先に LogicMonitor を使用するためのオプションについて説明します。詳細については、「https://www.logicmonitor.com」を参照してください。

  • 以下のフィールドに値を入力します。

    HTTP エンドポイント URL

    HTTP エンドポイントの URL を次の形式で指定します: https://ACCOUNT.logicmonitor.com

    API キー

    連絡先 LogicMonitor をクリックして、Kinesis Data Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。

    コンテンツのエンコーディング

    Kinesis Data Firehose は、リクエストを送信先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[GZIP] または [Disabled (無効)] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。

    再試行の期間

    選択された HTTP エンドポイントへのデータの送信を Kinesis Data Firehose が再試行する時間を指定します。

    データの送信後、Kinesis Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、HTTP エンドポイントからの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

    Parameters - オプション

    Kinesis Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

送信先に MongoDB Cloud を選択する

このセクションでは、送信先に MongoDB Cloud を使用するためのオプションについて説明します。詳細については、https://www.mongodb.com を参照してください。

  • 以下のフィールドに値を入力します。

    MongoDB Realm webhook URL

    HTTP エンドポイントの URL を次の形式で指定します: https://webhooks.mongodb-realm.com。 URL は HTTPS URL であることが必要です。

    API キー

    MongoDB Cloud に連絡して、Kinesis Data Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。

    コンテンツのエンコーディング

    Kinesis Data Firehose は、リクエストを送信先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[GZIP] または [Disabled (無効)] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。

    再試行の期間

    Kinesis Data Firehose が、選択したサードパーティープロバイダーへのデータの送信を再試行する期間を指定します。

    データの送信後、Kinesis Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、HTTP エンドポイントからの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

    Parameters - オプション

    Kinesis Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

送信先に New Relic を選択する

このセクションでは、送信先に New Relic を使用するためのオプションについて説明します。詳細については、次を参照してください。https://newrelic.com

  • 以下のフィールドに値を入力します。

    HTTP エンドポイント URL

    ドロップダウンメニューの次のオプションから HTTP エンドポイント URL を選択します。

    • New Relic ログ - 米国

    • New Relic メトリクス - 米国

    • New Relic メトリクス - EU

    API キー

    New Relic ワンアカウント設定から、ライセンスキー (40 文字の 16 進数文字列) を入力します。この API キーは、Kinesis Data Firehose からこのエンドポイントへのデータ配信を有効にするために必要です。

    コンテンツのエンコーディング

    Kinesis Data Firehose は、リクエストを送信先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[GZIP] または [Disabled (無効)] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。

    再試行の期間

    Kinesis Data Firehose が New Relic HTTP エンドポイントへのデータの送信を再試行する時間を指定します。

    データの送信後、Kinesis Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、HTTP エンドポイントからの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

    Parameters - オプション

    Kinesis Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

送信先に Splunk を選択する

このセクションでは、送信先に Splunk を使用するためのオプションについて説明します。

  • 以下のフィールドに値を入力します。

    Splunk クラスターエンドポイント

    エンドポイントを確認するには、Splunk ドキュメントの Configure Amazon Kinesis Firehose to Send Data to the Splunk Platform を参照してください。

    Splunk エンドポイントタイプ

    ほとんどの場合は Raw endpoint を選択します。イベントタイプごとに異なるインデックスにデータを送信するために AWS Lambda を使用してデータを事前処理している場合は、Event endpoint を選択します。使用するエンドポイントについては、Splunk ドキュメントの「Configure Amazon Kinesis Firehose to send data to the Splunk platform」を参照してください。

    認証トークン

    Kinesis Data Firehose からデータを受信できる Splunk エンドポイントをセットアップするには、Splunk ドキュメントの「Installation and Configuration Overview for the Splunk Add-on for Amazon Kinesis Firehose」を参照してください。この配信ストリームのエンドポイントを設定するときに Splunk から取得したトークンを保存し、ここで追加します。

    HEC 送達確認のタイムアウト

    Kinesis Data Firehose が Splunk からのインデックス送達確認を待機する時間を指定します。Splunk が確認を送信しないままタイムアウトに達すると、Kinesis Data Firehose ではデータ配信失敗と見なされます。その後、Kinesis Data Firehose は設定された再試行期間値に従って、再試行するか、データを Amazon S3 バケットにバックアップします。

    再試行の期間

    Kinesis Data Firehose が Splunk へのデータ送信を再試行する期間を指定します。

    データの送信後、Kinesis Data Firehose はまず Splunk からの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを Splunk に送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、Splunk からの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

送信先に Sumo Logic を選択する

このセクションでは、送信先に Sumo Logic を使用するためのオプションについて説明します。詳細については、「https://www.sumologic.com」を参照してください。

  • 以下のフィールドに値を入力します。

    HTTP エンドポイント URL

    HTTP エンドポイントの URL を次の形式で指定します: https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token。 URL は HTTPS URL であることが必要です。

    コンテンツのエンコーディング

    Kinesis Data Firehose は、リクエストを送信先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[GZIP] または [Disabled (無効)] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。

    再試行の期間

    Kinesis Data Firehose が Sumo Logic へのデータの送信を再試行する時間を指定します。

    データの送信後、Kinesis Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Kinesis Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Kinesis Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。

    Kinesis Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、送達確認タイムアウトカウンターが再度開始され、HTTP エンドポイントからの送達確認を待機します。

    再試行期間が切れた場合でも、Kinesis Data Firehose は送達確認が到着するか送達確認タイムアウト期間に達するまで送達確認を待機し続けます。確認がタイムアウトすると、Kinesis Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。

    Kinesis Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。

    Parameters - オプション

    Kinesis Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

    S3 バッファのヒント

    Kinesis Data Firehose は受信データをバッファしてから、指定された送信先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。