Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
È possibile applicare il partizionamento dinamico ai dati aggregati (ad esempio, più eventi, registri o record aggregati in un'unica PutRecordBatch
API chiamata), ma questi dati devono PutRecord
prima essere disaggregati. È possibile disaggregare i dati abilitando la deaggregazione di più record, il processo di analisi dei record nel flusso Firehose e la loro separazione.
La disaggregazione di più record può essere di JSON
tipo diverso, il che significa che la separazione dei record si basa su oggetti consecutivi. JSON La disaggregazione può anche essere del tipoDelimited
, vale a dire che la separazione dei record viene eseguita sulla base di un delimitatore personalizzato specificato. Questo delimitatore personalizzato deve essere una stringa con codifica in base 64. Ad esempio, se desideri utilizzare la seguente stringa come delimitatore personalizzato####
, devi specificarla nel formato codificato base-64, che la traduce in. IyMjIw==
La disaggregazione dei record per JSON o per delimitatore è limitata a 500 per record.
Nota
Quando disaggregate JSON i record, assicuratevi che l'input sia ancora presentato nel formato supportato. JSON JSONgli oggetti devono trovarsi su una sola riga senza delimitatori o solo delimitatori di nuova riga (). JSONL Una matrice di JSON oggetti non è un input valido.
Questi sono esempi di input corretto: {"a":1}{"a":2} and {"a":1}\n{"a":2}
Questo è un esempio di immissione errata: [{"a":1}, {"a":2}]
Con i dati aggregati, quando si abilita il partizionamento dinamico, Firehose analizza i record e cerca JSON oggetti validi o record delimitati all'interno di ogni API chiamata in base al tipo di deaggregazione multi-record specificato.
Importante
Se i dati sono aggregati, il partizionamento dinamico può essere applicato solo se i dati vengono prima disaggregati.
Importante
Quando si utilizza la funzionalità di trasformazione dei dati in Firehose, la deaggregazione verrà applicata prima della trasformazione dei dati. I dati che entrano in Firehose verranno elaborati nel seguente ordine: Deaggregazione → Trasformazione dei dati tramite Lambda → Chiavi di partizionamento.