Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
UNLOAD
Timestream for LiveAnalytics prend en charge une UNLOAD
commande en tant qu'extension de son SQL support. Les types de données pris en charge par UNLOAD
sont décrits dansTypes de données pris en charge. Les unknown
types time
et ne s'appliquent pas àUNLOAD
.
UNLOAD (SELECT statement) TO 's3://bucket-name/folder' WITH ( option = expression [, ...] )
où se trouve l'option
{ partitioned_by = ARRAY[ col_name[,…] ] | format = [ '{ CSV | PARQUET }' ] | compression = [ '{ GZIP | NONE }' ] | encryption = [ '{ SSE_KMS | SSE_S3 }' ] | kms_key = '<string>' | field_delimiter ='<character>' | escaped_by = '<character>' | include_header = ['{true, false}'] | max_file_size = '<value>' }
- SELECTdéclaration
-
L'instruction de requête utilisée pour sélectionner et récupérer les données d'un ou de plusieurs Timestream pour les LiveAnalytics tables.
(SELECT column 1, column 2, column 3 from database.table where measure_name = "ABC" and timestamp between ago (1d) and now() )
- Clause TO
-
TO 's3://bucket-name/folder'
or
TO 's3://access-point-alias/folder'
La
TO
clause contenue dans l'UNLOAD
instruction indique la destination de sortie des résultats de la requête. Vous devez fournir le chemin complet, y compris soit le nom du compartiment Amazon S3, soit Amazon S3 access-point-alias avec l'emplacement du dossier sur Amazon S3 où Timestream for LiveAnalytics écrit les objets du fichier de sortie. Le compartiment S3 doit appartenir au même compte et se trouver dans la même région. Outre le jeu de résultats de la requête, Timestream for LiveAnalytics écrit le manifeste et les fichiers de métadonnées dans le dossier de destination spécifié. - PARTITIONEDClause _BY
-
partitioned_by = ARRAY [col_name[,…] , (default: none)
La
partitioned_by
clause est utilisée dans les requêtes pour regrouper et analyser les données à un niveau granulaire. Lorsque vous exportez les résultats de votre requête vers le compartiment S3, vous pouvez choisir de partitionner les données en fonction d'une ou de plusieurs colonnes de la requête de sélection. Lors du partitionnement des données, les données exportées sont divisées en sous-ensembles en fonction de la colonne de partition et chaque sous-ensemble est stocké dans un dossier distinct. Dans le dossier de résultats qui contient vos données exportées, un sous-dossierfolder/results/partition column = partition value/
est automatiquement créé. Notez toutefois que les colonnes partitionnées ne sont pas incluses dans le fichier de sortie.partitioned_by
n'est pas une clause obligatoire dans la syntaxe. Si vous choisissez d'exporter les données sans partitionnement, vous pouvez exclure la clause dans la syntaxe.En supposant que vous surveillez les données de navigation de votre site Web et que vous disposiez de 5 canaux de trafic
direct
, à savoirSocial Media
Organic Search
,Other
, etReferral
. Lorsque vous exportez les données, vous pouvez choisir de les partitionner à l'aide de la colonneChannel
. Dans votre dossier de donnéess3://bucketname/results
, vous aurez cinq dossiers portant chacun leur nom de chaîne respectif. Par exemple,s3://bucketname/results/channel=Social Media/.
dans ce dossier, vous trouverez les données de tous les clients qui ont accédé à votre site Web via leSocial Media
canal. De même, vous aurez d'autres dossiers pour les chaînes restantes.Données exportées partitionnées par colonne de canal
- FORMAT
-
format = [ '{ CSV | PARQUET }' , default: CSV
Les mots clés permettant de spécifier le format des résultats de requête écrits dans votre compartiment S3. Vous pouvez exporter les données soit sous forme de valeur séparée par des virgules (CSV) en utilisant une virgule (,) comme séparateur par défaut, soit au format Apache Parquet, un format de stockage en colonnes ouvert efficace pour les analyses.
- COMPRESSION
-
compression = [ '{ GZIP | NONE }' ], default: GZIP
Vous pouvez compresser les données exportées à l'aide d'un algorithme de compression GZIP ou les décompresser en spécifiant l'
NONE
option. - ENCRYPTION
-
encryption = [ '{ SSE_KMS | SSE_S3 }' ], default: SSE_S3
Les fichiers de sortie sur Amazon S3 sont chiffrés à l'aide de l'option de chiffrement que vous avez sélectionnée. Outre vos données, le manifeste et les fichiers de métadonnées sont également chiffrés en fonction de l'option de chiffrement que vous avez sélectionnée. Nous prenons actuellement en charge le KMS chiffrement SSE _S3 et SSE _. SSE_S3 est un chiffrement côté serveur, Amazon S3 chiffrant les données à l'aide d'un cryptage standard de chiffrement avancé () 256 bits. AES SSE_ KMS est un chiffrement côté serveur qui permet de chiffrer les données à l'aide de clés gérées par le client.
- KMS_KEY
-
kms_key = '<string>'
KMSLa clé est une clé définie par le client pour chiffrer les résultats de requête exportés. KMSLa clé est gérée de manière sécurisée par le service de gestion des AWS clés (AWS KMS) et utilisée pour chiffrer les fichiers de données sur Amazon S3.
- FIELD_DELIMITER
-
field_delimiter ='<character>' , default: (,)
Lors de l'exportation des données au CSV format, ce champ spécifie un seul ASCII caractère utilisé pour séparer les champs du fichier de sortie, tel qu'un tube (|), une virgule (,) ou un onglet (/t). Le séparateur par défaut pour les CSV fichiers est une virgule. Si une valeur de vos données contient le délimiteur choisi, celui-ci sera mis entre guillemets. Par exemple, si la valeur de vos données contient
Time,stream
, elle sera indiquée entre guillemets comme"Time,stream"
dans les données exportées. Les guillemets utilisés par Timestream LiveAnalytics sont des guillemets doubles («).Évitez de spécifier le caractère de renvoi (ASCII13, hexadécimal
0D
, texte « \ r ») ou le caractère de saut de ligne (ASCII10, hexadécimal 0A, texte «\n») comme telFIELD_DELIMITER
si vous souhaitez inclure des en-têtes dans leCSV, car cela empêcherait de nombreux analyseurs de pouvoir analyser correctement les en-têtes dans la sortie résultante. CSV - ESCAPED_PAR
-
escaped_by = '<character>', default: (\)
Lors de l'exportation des données au CSV format, ce champ indique le caractère qui doit être traité comme un caractère d'échappement dans le fichier de données écrit dans le compartiment S3. L'évasion se produit dans les scénarios suivants :
-
Si la valeur elle-même contient le caractère guillemet («), elle sera échappée à l'aide d'un caractère d'échappement. Par exemple, si la valeur est
Time"stream
, où (\) est le caractère d'échappement configuré, il sera échappé en tant queTime\"stream
. -
Si la valeur contient le caractère d'échappement configuré, il sera échappé. Par exemple, si la valeur est
Time\stream
, elle sera ignorée en tant queTime\\stream
.
Note
Si la sortie exportée contient des types de données complexes tels que des tableaux, des lignes ou des séries temporelles, elle sera sérialisée sous forme de chaîne. JSON Voici un exemple.
Type de données Valeur réelle Comment la valeur est échappée au CSV format [JSONchaîne sérialisée] Tableau
[ 23,24,25 ]
"[23,24,25]"
Rangée
( x=23.0, y=hello )
"{\"x\":23.0,\"y\":\"hello\"}"
Chronologique
[ ( time=1970-01-01 00:00:00.000000010, value=100.0 ),( time=1970-01-01 00:00:00.000000012, value=120.0 ) ]
"[{\"time\":\"1970-01-01 00:00:00.000000010Z\",\"value\":100.0},{\"time\":\"1970-01-01 00:00:00.000000012Z\",\"value\":120.0}]"
-
- INCLUDE_HEADER
-
include_header = 'true' , default: 'false'
Lorsque vous exportez les données au CSV format, ce champ vous permet d'inclure les noms de colonnes dans la première ligne des fichiers de CSV données exportés.
Les valeurs acceptées sont « vrai » et « faux » et la valeur par défaut est « faux ». Les options de transformation de texte telles que
escaped_by
etfield_delimiter
s'appliquent également aux en-têtes.Note
Lorsque vous incluez des en-têtes, il est important de ne pas sélectionner un caractère de renvoi (ASCII13, hexadécimal 0D, texte « \ r ») ou un caractère de saut de ligne (ASCII10, hexadécimal 0A, texte «\n») comme caractère
FIELD_DELIMITER
, car cela empêcherait de nombreux analyseurs de pouvoir analyser correctement les en-têtes dans le résultat obtenu. CSV - MAX_FILE_SIZE
-
max_file_size = 'X[MB|GB]' , default: '78GB'
Ce champ indique la taille maximale des fichiers créés par l'
UNLOAD
instruction dans Amazon S3. L'UNLOAD
instruction peut créer plusieurs fichiers, mais la taille maximale de chaque fichier écrit sur Amazon S3 sera approximativement celle spécifiée dans ce champ.La valeur du champ doit être comprise entre 16 Mo et 78 Go inclus. Vous pouvez le spécifier en nombre entier tel que
12GB
, ou en décimaux tels que0.5GB
ou.24.7MB
La valeur par défaut est de 78 Go.La taille réelle du fichier est approximative au moment de l'écriture du fichier, de sorte que la taille maximale réelle peut ne pas être exactement égale au nombre que vous spécifiez.