Crea un processo di importazione in blocco ()AWS CLI - AWS IoT SiteWise

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Crea un processo di importazione in blocco ()AWS CLI

Utilizza l'operazione CreateBulkImportJobAPI per trasferire dati da Amazon S3 a. AWS IoT SiteWise Utilizza l'CreateBulkImportJobAPI per importare dati in piccoli lotti in modo conveniente. Nell'esempio seguente viene utilizzato AWS CLI.

Importante

Prima di creare un processo di importazione in blocco, devi abilitare il livello AWS IoT SiteWise caldo o AWS IoT SiteWise il livello freddo. Per ulteriori informazioni, consulta Configurare le impostazioni di archiviazione.

L'importazione in blocco è progettata per archiviare dati storici in. AWS IoT SiteWise Non avvia calcoli o notifiche sul livello AWS IoT SiteWise caldo o sul livello AWS IoT SiteWise freddo.

Esegui il comando seguente. Sostituisci file-name con il nome del file che contiene la configurazione del processo di importazione in blocco.

aws iotsitewise create-bulk-import-job --cli-input-json file://file-name.json
Esempio Configurazione del processo di importazione in blocco

Di seguito sono riportati alcuni esempi di impostazioni di configurazione:

  • Sostituisci adaptive-ingestion-flag con true o false.

    • Se impostato sufalse, il processo di importazione in blocco inserisce i dati storici in. AWS IoT SiteWise

    • Se impostato sutrue, il processo di importazione in blocco esegue le seguenti operazioni:

      • Inserisce nuovi dati in. AWS IoT SiteWise

      • Calcola metriche e trasformazioni e supporta notifiche per i dati con un timestamp entro sette giorni.

  • Sostituisci delete-files-after-import-flag con true per eliminare i dati dal bucket di dati S3 dopo averli inseriti in uno storage di livello caldo. AWS IoT SiteWise

  • Sostituisci error-bucket con il nome del bucket Amazon S3 a cui vengono inviati gli errori associati a questo processo di importazione in blocco.

  • Sostituisci error-bucket-prefixcon il prefisso del bucket Amazon S3 a cui vengono inviati gli errori associati a questo processo di importazione in blocco.

    Amazon S3 utilizza il prefisso come nome di cartella per organizzare i dati nel bucket. Ogni oggetto Amazon S3 ha una chiave che è il suo identificatore univoco nel bucket. Per ogni oggetto in un bucket è presente esattamente una chiave. Il prefisso deve terminare con una barra (/). Per ulteriori informazioni, consulta Organization object using prefixes nella Amazon Simple Storage Service User Guide.

  • Sostituisci data-bucket con il nome del bucket Amazon S3 da cui vengono importati i dati.

  • Sostituisci data-bucket-keycon la chiave dell'oggetto Amazon S3 che contiene i tuoi dati. Ogni oggetto ha una chiave che è un identificatore univoco. Ogni oggetto ha esattamente una chiave.

  • Sostituiscilo data-bucket-version-idcon l'ID della versione per identificare una versione specifica dell'oggetto Amazon S3 che contiene i tuoi dati. Questo parametro è facoltativo.

  • Sostituisci column-name con il nome della colonna specificato nel file.csv.

  • Sostituisci job-name con un nome univoco che identifichi il processo di importazione in blocco.

  • Sostituisci job-role-arncon il ruolo IAM che consente di AWS IoT SiteWise leggere i dati di Amazon S3.

Nota

Assicurati che il tuo ruolo disponga delle autorizzazioni mostrate nell'esempio seguente. Sostituisci data-bucket con il nome del bucket Amazon S3 che contiene i tuoi dati. Inoltre, sostituisci error-bucket con il nome del bucket Amazon S3 a cui vengono inviati gli errori associati a questo processo di importazione in blocco.

{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::data-bucket", "arn:aws:s3:::data-bucket/*", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject", "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::error-bucket", "arn:aws:s3:::error-bucket/*" ], "Effect": "Allow" } ] }
{ "adaptiveIngestion": adaptive-ingestion-flag, "deleteFilesAfterImport": delete-files-after-import-flag, "errorReportLocation": { "bucket": "error-bucket", "prefix": "error-bucket-prefix" }, "files": [ { "bucket": "data-bucket", "key": "data-bucket-key", "versionId": "data-bucket-version-id" } ], "jobConfiguration": { "fileFormat": { "csv": { "columnNames": [ "column-name" ] } } }, "jobName": "job-name", "jobRoleArn": "job-role-arn" }
Esempio response
{ "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5", "jobStatus":"PENDING", "jobName":"myBulkImportJob" }