Validation du flux des événements de journaux - Amazon CloudWatch Logs

Validation du flux des événements de journaux

Après avoir créé le filtre d'abonnement, CloudWatch Logs transmet tous les événements du journal entrants qui correspondent au modèle de filtrage au flux de diffusion Kinesis Data Firehose. Les données commencent à apparaître dans votre compartiment Amazon S3 en fonction de l'intervalle de temps tampon défini dans le flux de diffusion Kinesis Data Firehose. Après un délai suffisant, vous pouvez consulter le compartiment Amazon S3 pour vérifier vos données. Pour vérifier le compartiment, saisissez la commande suivante :

aws s3api list-objects --bucket 'firehose-test-bucket1'

La sortie de cette commande sera similaire à ce qui suit :

{ "Contents": [ { "Key": "2021/02/02/08/my-delivery-stream-1-2021-02-02-08-55-24-5e6dc317-071b-45ba-a9d3-4805ba39c2ba", "LastModified": "2021-02-02T09:00:26+00:00", "ETag": "\"EXAMPLEa817fb88fc770b81c8f990d\"", "Size": 198, "StorageClass": "STANDARD", "Owner": { "DisplayName": "firehose+2test", "ID": "EXAMPLE27fd05889c665d2636218451970ef79400e3d2aecca3adb1930042e0" } } ] }

Vous pouvez ensuite récupérer un objet spécifique du compartiment en entrant la commande suivante. Remplacez la valeur de key par la valeur que vous avez trouvée dans la commande précédente.

aws s3api get-object --bucket 'firehose-test-bucket1' --key '2021/02/02/08/my-delivery-stream-1-2021-02-02-08-55-24-5e6dc317-071b-45ba-a9d3-4805ba39c2ba' testfile.gz

Les données dans l'objet Amazon S3 sont comprimées au format gzip. Vous pouvez examiner les données brutes à partir de la ligne de commande en utilisant l'une des commandes suivantes :

Linux :

zcat testfile.gz

macOS :

zcat <testfile.gz