一括インポートジョブ (AWS CLI) を作成する - AWS IoT SiteWise

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

一括インポートジョブ (AWS CLI) を作成する

CreateBulkImportJobAPI オペレーションを使用して、Amazon S3 AWS IoT SiteWiseからにデータを転送します。CreateBulkImportJobAPI を使用すると、費用対効果の高い方法でデータを小さなバッチで取り込むことができます。次の例では AWS CLIを使用しています。

重要

一括インポートジョブを作成する前に、 AWS IoT SiteWise AWS IoT SiteWise ウォーム階層またはコールド階層を有効にする必要があります。詳細については、「ストレージ設定の構成」を参照してください。

一括インポートは、履歴データをに保存するように設計されています AWS IoT SiteWise。 AWS IoT SiteWise AWS IoT SiteWise ウォームティアやコールドティアでは計算や通知は開始されません。

以下のコマンドを実行します。file-name の部分は、一括インポートジョブの設定を含むファイルの名前に置き換えます。

aws iotsitewise create-bulk-import-job --cli-input-json file://file-name.json
例 ジョブ設定を一括インポートします。

構成設定の例を以下に示します。

  • adaptive-ingestion-flagtrue または false に置き換えます。

    • に設定するとfalse、一括インポートジョブは履歴データをに取り込みます AWS IoT SiteWise。

    • に設定するとtrue、一括インポートジョブは次の処理を行います。

      • 新しいデータをに取り込みます。 AWS IoT SiteWise

      • メトリクスとトランスフォームを計算し、7 日以内のタイムスタンプが付いたデータの通知をサポートします。

  • ウォーム階層ストレージに取り込んだ後に S3 true データバケットからデータを削除するには、delete-files-after-import-flag をに置き換えます。 AWS IoT SiteWise

  • error-bucket の部分は、この一括インポートジョブに関連するエラーの送信先である Amazon S3 バケットの名前に置き換えます。

  • この一括インポートジョブに関連するエラーの送信先の Amazon S3 バケットのプレフィックスに置き換えますerror-bucket-prefix

    Amazon S3 では、このプレフィックスをフォルダ名として使用して、バケット内のデータを整理します。Amazon S3 バケット内の各オブジェクトには、バケット内の一意の識別子であるキーが含まれます。バケット内のすべてのオブジェクトは、厳密に 1 個のキーを持ちます。このプレフィックスは、スラッシュ (/) で終わる必要があります。詳細は、『Amazon Simple Storage Service ユーザーガイド』の「プレフィックスを使用してオブジェクトを整理する」を参照してください。

  • data-bucket の部分は、データのインポート元である Amazon S3 バケットの名前に置き換えます。

  • データを含む Amazon S3 data-bucket-keyオブジェクトのキーに置き換えます。すべてのオブジェクトには、一意の識別子であるキーがあります。すべてのオブジェクトは、厳密に 1 個のキーを持ちます。

  • データを含む Amazon S3 オブジェクトの特定のバージョンを識別するには、バージョン ID data-bucket-version-idに置き換えます。このパラメータはオプションです。

  • column-name の部分は、.csv ファイルに指定されている列名に置き換えます。

  • job-name の部分は、一括インポートジョブを識別する一意の名前に置き換えます。

  • Amazon S3 AWS IoT SiteWise データの読み取りを許可する IAM job-role-arnロールに置き換えてください。

注記

次の例に示すようなアクセス許可をロールが持っていることを確認してください。data-bucket は、データを含む Amazon S3 バケットの名前に置き換えてください。また、error-bucket は、この一括インポートジョブに関連するエラーの送信先となる Amazon S3 バケットの名前に置き換えてください。

{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::data-bucket", "arn:aws:s3:::data-bucket/*", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject", "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::error-bucket", "arn:aws:s3:::error-bucket/*" ], "Effect": "Allow" } ] }
{ "adaptiveIngestion": adaptive-ingestion-flag, "deleteFilesAfterImport": delete-files-after-import-flag, "errorReportLocation": { "bucket": "error-bucket", "prefix": "error-bucket-prefix" }, "files": [ { "bucket": "data-bucket", "key": "data-bucket-key", "versionId": "data-bucket-version-id" } ], "jobConfiguration": { "fileFormat": { "csv": { "columnNames": [ "column-name" ] } } }, "jobName": "job-name", "jobRoleArn": "job-role-arn" }
例 レスポンス
{ "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5", "jobStatus":"PENDING", "jobName":"myBulkImportJob" }