Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Procedure ottimali per il caricamento in batch
Il carico in batch funziona al meglio (produttività elevata) se si rispettano le seguenti condizioni e raccomandazioni:
-
CSVi file inviati per l'ingestione sono di piccole dimensioni, in particolare con una dimensione compresa tra 100 MB e 1 GB, per migliorare il parallelismo e la velocità di ingestione.
-
Evita di importare contemporaneamente dati nella stessa tabella (ad esempio utilizzando l' WriteRecords APIoperazione o una query pianificata) quando è in corso il caricamento del batch. Ciò potrebbe causare rallentamenti e l'operazione di caricamento in batch non riuscirà.
-
Non aggiungere, modificare o rimuovere file dal bucket S3 utilizzato nel caricamento in batch mentre l'attività di caricamento in batch è in esecuzione.
-
Non eliminate o revocate le autorizzazioni dalle tabelle o dall'origine e non segnalate i bucket S3 con attività di caricamento batch pianificate o in corso.
-
Quando si importano dati con un set di valori di dimensione ad alta cardinalità, segui le indicazioni riportate in. Consigli per il partizionamento di record multimisura
-
Assicurati di verificare la correttezza dei dati inviando un file di piccole dimensioni. Tutti i dati inviati al caricamento in batch ti verranno addebitati indipendentemente dalla correttezza. Per ulteriori informazioni sui prezzi, consulta i prezzi di Amazon Timestream
. -
Non riprendere un'attività di caricamento in batch a meno che
ActiveMagneticStorePartitions
il numero non sia inferiore a 250. Il processo potrebbe essere rallentato e fallire. L'invio di più lavori contemporaneamente per lo stesso database dovrebbe ridurre il numero.
Di seguito sono riportate le best practice relative alla console:
-
Utilizza il generatore solo per una modellazione dei dati più semplice che utilizza un solo nome di misura per i record di più misure.
-
Per una modellazione dei dati più complessa, usa. JSON Ad esempio, utilizzare JSON quando si utilizzano più nomi di misure quando si utilizzano record con più misure.
Per ulteriori informazioni su Timestream relative alle LiveAnalytics best practice, consulta. Best practice