Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Crea un processo di importazione in blocco ()AWS CLI
Utilizza l'operazione CreateBulkImportJobAPI per trasferire dati da Amazon S3 a. AWS IoT SiteWise Utilizza l'CreateBulkImportJobAPI per importare dati in piccoli lotti in modo conveniente. Nell'esempio seguente viene utilizzato AWS CLI.
Importante
Prima di creare un processo di importazione in blocco, devi abilitare il livello AWS IoT SiteWise caldo o AWS IoT SiteWise il livello freddo. Per ulteriori informazioni, consulta Configurare le impostazioni di archiviazione.
L'importazione in blocco è progettata per archiviare dati storici in. AWS IoT SiteWise Non avvia calcoli o notifiche sul livello AWS IoT SiteWise caldo o sul livello AWS IoT SiteWise freddo.
Esegui il comando seguente. Sostituisci file-name
con il nome del file che contiene la configurazione del processo di importazione in blocco.
aws iotsitewise create-bulk-import-job --cli-input-json file://
file-name
.json
Esempio Configurazione del processo di importazione in blocco
Di seguito sono riportati alcuni esempi di impostazioni di configurazione:
-
Sostituisci
adaptive-ingestion-flag
contrue
ofalse
.Se impostato su
false
, il processo di importazione in blocco inserisce i dati storici in. AWS IoT SiteWiseSe impostato su
true
, il processo di importazione in blocco esegue le seguenti operazioni:Inserisce nuovi dati in. AWS IoT SiteWise
Calcola metriche e trasformazioni e supporta notifiche per i dati con un timestamp entro sette giorni.
-
Sostituisci
delete-files-after-import-flag
contrue
per eliminare i dati dal bucket di dati S3 dopo averli inseriti in uno storage di livello caldo. AWS IoT SiteWise -
Sostituisci
error-bucket
con il nome del bucket Amazon S3 a cui vengono inviati gli errori associati a questo processo di importazione in blocco. -
Sostituisci
error-bucket-prefix
con il prefisso del bucket Amazon S3 a cui vengono inviati gli errori associati a questo processo di importazione in blocco.Amazon S3 utilizza il prefisso come nome di cartella per organizzare i dati nel bucket. Ogni oggetto Amazon S3 ha una chiave che è il suo identificatore univoco nel bucket. Per ogni oggetto in un bucket è presente esattamente una chiave. Il prefisso deve terminare con una barra (/). Per ulteriori informazioni, consulta Organization object using prefixes nella Amazon Simple Storage Service User Guide.
-
Sostituisci
data-bucket
con il nome del bucket Amazon S3 da cui vengono importati i dati. -
Sostituisci
data-bucket-key
con la chiave dell'oggetto Amazon S3 che contiene i tuoi dati. Ogni oggetto ha una chiave che è un identificatore univoco. Ogni oggetto ha esattamente una chiave. -
Sostituiscilo
data-bucket-version-id
con l'ID della versione per identificare una versione specifica dell'oggetto Amazon S3 che contiene i tuoi dati. Questo parametro è facoltativo. -
Sostituisci
column-name
con il nome della colonna specificato nel file.csv. -
Sostituisci
job-name con un nome
univoco che identifichi il processo di importazione in blocco. -
Sostituisci
job-role-arn
con il ruolo IAM che consente di AWS IoT SiteWise leggere i dati di Amazon S3.
Nota
Assicurati che il tuo ruolo disponga delle autorizzazioni mostrate nell'esempio seguente. Sostituisci data-bucket
con il nome del bucket Amazon S3 che contiene i tuoi dati. Inoltre, sostituisci error-bucket
con il nome del bucket Amazon S3 a cui vengono inviati gli errori associati a questo processo di importazione in blocco.
{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::
data-bucket
", "arn:aws:s3:::data-bucket
/*", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject", "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::error-bucket
", "arn:aws:s3:::error-bucket
/*" ], "Effect": "Allow" } ] }
{ "adaptiveIngestion": adaptive-ingestion-flag, "deleteFilesAfterImport": delete-files-after-import-flag, "errorReportLocation": { "bucket": "
error-bucket
", "prefix": "error-bucket-prefix
" }, "files": [ { "bucket": "data-bucket
", "key": "data-bucket-key
", "versionId": "data-bucket-version-id
" } ], "jobConfiguration": { "fileFormat": { "csv": { "columnNames": [ "column-name
" ] } } }, "jobName": "job-name
", "jobRoleArn": "job-role-arn
" }
Esempio response
{ "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5", "jobStatus":"PENDING", "jobName":"myBulkImportJob" }