翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
一括インポートジョブ (AWS CLI) を作成する
CreateBulkImportJob API オペレーションを使用して、Amazon S3 から にデータを転送します AWS IoT SiteWise。CreateBulkImportJob API を使用すると、大量の履歴データを取り込み、分析データストリームを小さなバッチでバッファインできます。データインジェストのための費用対効果の高いプリミティブを提供します。次の例では AWS CLIを使用しています。
重要
一括インポートジョブを作成する前に、ウォーム階層または AWS IoT SiteWise コールド階層を有効にする AWS IoT SiteWise 必要があります。詳細については、「ストレージ設定の構成」を参照してください。
CreateBulkImportJob API は、 adaptive-ingestion-flag パラメータを設定するオプション AWS IoT SiteWise を使用して、履歴データの への取り込みをサポートします。
に設定すると
false
、API は計算や通知をトリガーせずに履歴データを取り込みます。に設定すると
true
、API は新しいデータを取り込み、メトリクスを計算してデータを変換し、進行中の分析と通知を 7 日以内に最適化します。
以下のコマンドを実行します。file-name
の部分は、一括インポートジョブの設定を含むファイルの名前に置き換えます。
aws iotsitewise create-bulk-import-job --cli-input-json file://
file-name
.json
例 一括インポートジョブ設定
設定の例を次に示します。
-
adaptive-ingestion-flag
をtrue
またはfalse
に置き換えます。に設定すると
false
、一括インポートジョブは履歴データを に取り込みます AWS IoT SiteWise。に設定すると
true
、一括インポートジョブは次の処理を行います。新しいデータを に取り込みます AWS IoT SiteWise。
メトリクスと変換を計算し、7 日以内のタイムスタンプを持つデータの通知をサポートします。
-
delete-files-after-import-flag
を に置き換えtrue
て、 AWS IoT SiteWise ウォーム階層ストレージに取り込んだ後、S3 データバケットからデータを削除します。 -
error-bucket
の部分は、この一括インポートジョブに関連するエラーの送信先である Amazon S3 バケットの名前に置き換えます。 -
を、この一括インポートジョブに関連するエラーが送信される Amazon S3 バケットのプレフィックス
error-bucket-prefix
に置き換えます。Amazon S3 では、このプレフィックスをフォルダ名として使用して、バケット内のデータを整理します。Amazon S3 バケット内の各オブジェクトには、バケット内の一意の識別子であるキーが含まれます。バケット内のすべてのオブジェクトは、厳密に 1 個のキーを持ちます。このプレフィックスは、スラッシュ (/) で終わる必要があります。詳細は、『Amazon Simple Storage Service ユーザーガイド』の「プレフィックスを使用してオブジェクトを整理する」を参照してください。
-
data-bucket
の部分は、データのインポート元である Amazon S3 バケットの名前に置き換えます。 -
を、データを含む Amazon S3 オブジェクトのキー
data-bucket-key
に置き換えます。すべてのオブジェクトには、一意の識別子であるキーがあります。すべてのオブジェクトは、厳密に 1 個のキーを持ちます。 -
をバージョン ID
data-bucket-version-id
に置き換えて、データを含む Amazon S3 オブジェクトの特定のバージョンを特定します。このパラメータはオプションです。 -
column-name
の部分は、.csv ファイルに指定されている列名に置き換えます。 -
job-name
の部分は、一括インポートジョブを識別する一意の名前に置き換えます。 -
を、 が Amazon S3 データの読み取り AWS IoT SiteWise を許可する IAM ロール
job-role-arn
に置き換えます。 Amazon S3
注記
次の例に示すようなアクセス許可をロールが持っていることを確認してください。data-bucket
を、データを含む Amazon S3 バケットの名前に置き換えます。また、 error-bucket
を、この一括インポートジョブに関連するエラーが送信される Amazon S3 バケットの名前に置き換えます。
{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::
data-bucket
", "arn:aws:s3:::data-bucket
/*", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject", "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::error-bucket
", "arn:aws:s3:::error-bucket
/*" ], "Effect": "Allow" } ] }
{ "adaptiveIngestion": adaptive-ingestion-flag, "deleteFilesAfterImport": delete-files-after-import-flag, "errorReportLocation": { "bucket": "
error-bucket
", "prefix": "error-bucket-prefix
" }, "files": [ { "bucket": "data-bucket
", "key": "data-bucket-key
", "versionId": "data-bucket-version-id
" } ], "jobConfiguration": { "fileFormat": { "csv": { "columnNames": [ "column-name
" ] } } }, "jobName": "job-name
", "jobRoleArn": "job-role-arn
" }
例 レスポンス
{ "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5", "jobStatus":"PENDING", "jobName":"myBulkImportJob" }