本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
帳戶層級訂閱過濾器
重要
使用訂閱篩選器可能會造成無限遞迴迴圈的風險,如果未解決,擷取計費可能會大幅增加。為了降低此風險,建議您在帳戶層級訂閱篩選器中使用選取準則,排除從屬於訂閱傳遞工作流程一部分之資源擷取記錄資料的記錄群組。如需有關此問題以及判斷要排除哪些記錄群組的詳細資訊,請參閱防止記錄遞迴。
您可以設定帳戶層級訂閱政策,其中包含帳戶中的記錄群組子集。帳戶訂閱政策可與 Kinesis Data Streams、Lambda 或 Firehose 搭配使用。透過帳戶層級訂閱原則傳送至接收服務的記錄會以 base64 編碼,並以 gzip 格式壓縮。
注意
若要檢視您帳戶中所有訂閱篩選原則的清單,請使用具有--policy-type
參數值SUBSCRIPTION_FILTER_POLICY
的describe-account-policies
命令。如需詳細資訊,請參閱 describe-account-policies¶。
範例 1:訂閱篩選條件與 Kinesis Data Streams 搭配使用
建立 Kinesis Data Streams 資料串流以搭配帳戶層級訂閱政策使用之前,請先計算將產生的記錄資料量。請務必使用足夠碎片建立 串流,以處理此磁碟區。如果串流沒有足夠的碎片,則會進行節流。如需串流磁碟區限制的詳細資訊,請參閱 Kinesis Data Streams 說明文件中的配額和限制。
警告
由於多個記錄群組的記錄事件會轉寄至目的地,因此存在限制的風險。限流的交付項目會持續重試,時間長達 24 小時。24 小時後,失敗的交付項目就會捨棄。
若要降低限流風險,您可以採取下步驟:
使用 CloudWatch 指標監控您的 Kinesis Data Streams。這有助於您識別節流並相應地調整配置。例如,
DeliveryThrottling
量度會追蹤將資料轉送至訂閱目的地時,已限制 CloudWatch 記錄檔的記錄事件數目。如需詳細資訊,請參閱 使用 CloudWatch 指標監控。在 Kinesis Data Streams 中為您的串流使用隨需容量模式。隨需模式會在您的工作負載上升或下降時,立即為您的工作負載調整所需的容量。如需詳細資訊,請參閱隨選模式。
限制您的 CloudWatch Log 訂閱篩選器模式,使其符合 Kinesis 資料串流中串流的容量。如果您傳送太多資料至串流,您可能需要減少篩選條件大小或調整篩選條件標準。
下列範例使用帳戶層級訂閱政策,將所有記錄事件轉寄至 Kinesis Data Streams 中的串流。篩選器模式會將任何記錄事件與文字相符,Test
並將它們轉送至 Kinesis 資料串流中的串流。
建立 Kinesis Data Streams 的帳戶層級訂閱政策
-
使用下列命令建立目的地 串流:
$
C:\>
aws kinesis create-stream —stream-name "TestStream" —shard-count 1 -
等待幾分鐘,讓串流變為作用中狀態。您可以使用描述串流命令來檢查資料流是否處於作用中狀態。StreamDescription StreamStatus財產。
aws kinesis describe-stream --stream-name "TestStream"
下列為範例輸出:
{ "StreamDescription": { "StreamStatus": "ACTIVE", "StreamName": "TestStream", "StreamARN": "arn:aws:kinesis:
region
:123456789012:stream/TestStream", "Shards": [ { "ShardId": "shardId-000000000000", "HashKeyRange": { "EndingHashKey": "EXAMPLE8463463374607431768211455", "StartingHashKey": "0" }, "SequenceNumberRange": { "StartingSequenceNumber": "EXAMPLE688818456679503831981458784591352702181572610" } } ] } } -
建立 IAM 角色,以授與 CloudWatch Log 權限,以將資料放入串流。首先,您將需要在檔案中建立信任政策 (例如,
~/TrustPolicyForCWL-Kinesis.json
)。請使用文字編輯器來建立此政策。此政策包含
aws:SourceArn
全域條件內容金鑰,以協助預防混淆代理人安全問題。如需詳細資訊,請參閱 預防混淆代理人。{ "Statement": { "Effect": "Allow", "Principal": { "Service": "logs.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringLike": { "aws:SourceArn": "arn:aws:logs:
region
:123456789012:*" } } } } -
使用 create-role 命令來建立 IAM 角色,並指定信任政策檔案。請注意傳回的 Role.Arn 值,因您將在後續步驟需要此值:
aws iam create-role --role-name
CWLtoKinesisRole
--assume-role-policy-document file://~/TrustPolicyForCWL-Kinesis.json
以下為輸出範例。
{ "Role": { "AssumeRolePolicyDocument": { "Statement": { "Action": "sts:AssumeRole", "Effect": "Allow", "Principal": { "Service": "logs.amazonaws.com" }, "Condition": { "StringLike": { "aws:SourceArn": { "arn:aws:logs:
region
:123456789012
:*" } } } } }, "RoleId": "EXAMPLE450GAB4HC5F431", "CreateDate": "2023-05-29T13:46:29.431Z", "RoleName": "CWLtoKinesisRole", "Path": "/", "Arn": "arn:aws:iam::123456789012
:role/CWLtoKinesisRole" } } -
建立權限原則,以定義 CloudWatch Logs 可以對您的帳戶執行的動作。首先,您將需要在檔案中建立許可政策 (例如,
~/PermissionsForCWL-Kinesis.json
)。請使用文字編輯器來建立此政策。請勿使用 IAM 主控台來建立它。{ "Statement": [ { "Effect": "Allow", "Action": "kinesis:PutRecord", "Resource": "arn:aws:kinesis:
region
:123456789012
:stream/TestStream" } ] } -
使用下列put-role-policy命令將權限原則與角色產生關聯:
aws iam put-role-policy --role-name
CWLtoKinesisRole
--policy-name Permissions-Policy-For-CWL --policy-document file://~/PermissionsForCWL-Kinesis.json
-
串流處於作用中狀態且您已建立 IAM 角色之後,您可以建立 CloudWatch 記錄訂閱篩選政策。此原則會立即啟動串流的即時記錄資料流。在此範例中,所有包含該字串的記錄事件
ERROR
都會串流處理,但名為LogGroupToExclude1
和LogGroupToExclude2
的記錄群組中的事件除外。aws logs put-account-policy \ --policy-name "ExamplePolicy" \ --policy-type "SUBSCRIPTION_FILTER_POLICY" \ --policy-document '{"RoleArn":"arn:aws:iam::
123456789012
:role/CWLtoKinesisRole", "DestinationArn":"arn:aws:kinesis:region
:123456789012
:stream/TestStream", "FilterPattern": "Test", "Distribution": "Random"}' \ --selection-criteria 'LogGroupName NOT IN ["LogGroupToExclude1", "LogGroupToExclude2"]' \ --scope "ALL" -
設定訂閱篩選器之後, CloudWatch Logs 會將符合篩選器模式和選取條件的所有傳入記錄事件轉寄至串流。
此
selection-criteria
欄位是選擇性欄位,但對於排除可能導致訂閱篩選器無限記錄遞迴的記錄群組而言非常重要。如需有關此問題以及判斷要排除哪些記錄群組的詳細資訊,請參閱防止記錄遞迴。目前,NOT IN 是唯一支援的運算子selection-criteria
。您可以使用 Kinesis 資料串流碎片迭代器,並使用 Kinesis Data Streams
get-records
命令擷取一些 Kinesis Data Streams 記錄,以驗證記錄事件的流程:aws kinesis get-shard-iterator --stream-name TestStream --shard-id shardId-000000000000 --shard-iterator-type TRIM_HORIZON
{ "ShardIterator": "AAAAAAAAAAFGU/kLvNggvndHq2UIFOw5PZc6F01s3e3afsSscRM70JSbjIefg2ub07nk1y6CDxYR1UoGHJNP4m4NFUetzfL+wev+e2P4djJg4L9wmXKvQYoE+rMUiFq+p4Cn3IgvqOb5dRA0yybNdRcdzvnC35KQANoHzzahKdRGb9v4scv+3vaq+f+OIK8zM5My8ID+g6rMo7UKWeI4+IWiK2OSh0uP" }
aws kinesis get-records --limit 10 --shard-iterator "AAAAAAAAAAFGU/kLvNggvndHq2UIFOw5PZc6F01s3e3afsSscRM70JSbjIefg2ub07nk1y6CDxYR1UoGHJNP4m4NFUetzfL+wev+e2P4djJg4L9wmXKvQYoE+rMUiFq+p4Cn3IgvqOb5dRA0yybNdRcdzvnC35KQANoHzzahKdRGb9v4scv+3vaq+f+OIK8zM5My8ID+g6rMo7UKWeI4+IWiK2OSh0uP"
Kinesis 資料串流開始傳回資料之前,您可能需要使用這個命令幾次。
您應該預期會看到含一系列的記錄的回應。Kinesis Data Streams 記錄中的 資料屬性採用 Base64 編碼並以 gzip 格式壓縮。您可以使用以下 Unix 命令來透過命令列檢查原始資料:
echo -n "<Content of Data>" | base64 -d | zcat
Base64 解碼和解壓縮資料是以 JSON 形式並以下列結構進行格式化:
{ "messageType": "DATA_MESSAGE", "owner": "123456789012", "logGroup": "Example1", "logStream": "logStream1", "subscriptionFilters": [ "ExamplePolicy" ], "logEvents": [ { "id": "31953106606966983378809025079804211143289615424298221568", "timestamp": 1432826855000, "message": "{\"eventVersion\":\"1.03\",\"userIdentity\":{\"type\":\"Root\"}" }, { "id": "31953106606966983378809025079804211143289615424298221569", "timestamp": 1432826855000, "message": "{\"eventVersion\":\"1.03\",\"userIdentity\":{\"type\":\"Root\"}" }, { "id": "31953106606966983378809025079804211143289615424298221570", "timestamp": 1432826855000, "message": "{\"eventVersion\":\"1.03\",\"userIdentity\":{\"type\":\"Root\"}" } ], "policyLevel": "ACCOUNT_LEVEL_POLICY" }
數據結構中的關鍵要素如下:
- messageType
-
資料訊息將使用「DATA_MESSAGE」類型。有時,記 CloudWatch 錄檔可能會發出具有「CONTROL_MESSAGE」類型的 Kinesis Data Streams 記錄,主要用於檢查目的地是否可連線。
- owner
-
原始記錄檔資料的 AWS 帳戶 ID。
- logGroup
-
原始日誌資料的日誌群組名稱。
- logStream
-
原始日誌資料的日誌串流名稱。
- subscriptionFilters
-
與原始日誌資料相符的訂閱篩選條件名稱清單。
- logEvents
-
實際的日誌資料,以一系列的日誌事件記錄呈現。「id」屬性是每個記錄事件的唯一識別符。
- 政策層級
-
強制執行策略的層級。「帳戶層級 _ 政策」是用於帳戶層級的
policyLevel
訂閱過濾策略。
範例 2:訂閱篩選器 AWS Lambda
在此示例中,您將創建 CloudWatch Logs 帳戶級訂閱過濾策略,該策略將日誌數據發送到您 AWS Lambda 的函數。
警告
建立 Lambda 函數前,請計算將產生的日誌資料量。請務必建立可以處理此磁碟區的函數。如果函數無法處理磁碟區,則會限制記錄串流。因為所有記錄群組或帳戶記錄群組子集的記錄事件都會轉送至目的地,因此可能會有限制的風險。如需 Lambda 限制的詳細資訊,請參閱 AWS Lambda 限制。
若要建立 Lambda 的帳戶層級訂閱篩選政策
-
建立 AWS Lambda 函數。
確保您已設定 Lambda 執行角色。如需詳細資訊,請參閱《AWS Lambda 開發人員指南》中的步驟 2.2:建立 IAM 角色 (執行角色)。
-
開啟文字編輯器,並建立名為
helloWorld.js
的檔案,內含下列內容:var zlib = require('zlib'); exports.handler = function(input, context) { var payload = Buffer.from(input.awslogs.data, 'base64'); zlib.gunzip(payload, function(e, result) { if (e) { context.fail(e); } else { result = JSON.parse(result.toString()); console.log("Event Data:", JSON.stringify(result, null, 2)); context.succeed(); } }); };
-
壓縮檔案 helloWorld.js,並以名稱
helloWorld.zip
將其儲存。 -
使用下列命令,其中角色是您在第一個步驟中設定的 Lambda 執行角色:
aws lambda create-function \ --function-name helloworld \ --zip-file fileb://file-path/helloWorld.zip \ --role lambda-execution-role-arn \ --handler helloWorld.handler \ --runtime nodejs18.x
-
授予 CloudWatch 記錄執行函數的權限。使用以下命令,用您自己的帳戶替換佔位符帳戶。
aws lambda add-permission \ --function-name "helloworld" \ --statement-id "helloworld" \ --principal "logs.amazonaws.com" \ --action "lambda:InvokeFunction" \ --source-arn "arn:aws:logs:
region
:123456789012
:log-group:*" \ --source-account "123456789012" -
使用下列命令建立帳戶層級訂閱篩選原則,並以您自己的帳戶取代預留位置帳戶。在此範例中,所有包含該字串的記錄事件
ERROR
都會串流處理,但名為LogGroupToExclude1
和LogGroupToExclude2
的記錄群組中的事件除外。aws logs put-account-policy \ --policy-name "ExamplePolicyLambda" \ --policy-type "SUBSCRIPTION_FILTER_POLICY" \ --policy-document '{"DestinationArn":"arn:aws:lambda:
region
:123456789012
:function:helloWorld", "FilterPattern": "Test", "Distribution": "Random"}' \ --selection-criteria 'LogGroupName NOT IN ["LogGroupToExclude1", "LogGroupToExclude2"]' \ --scope "ALL"設定訂閱篩選器之後, CloudWatch Logs 會將符合篩選器模式和選取條件的所有傳入記錄事件轉寄至串流。
此
selection-criteria
欄位是選擇性欄位,但對於排除可能導致訂閱篩選器無限記錄遞迴的記錄群組而言非常重要。如需有關此問題以及判斷要排除哪些記錄群組的詳細資訊,請參閱防止記錄遞迴。目前,NOT IN 是唯一支援的運算子selection-criteria
。 -
(選用) 使用範例日誌事件進行測試。在命令提示字元中執行下列命令,這會將簡單日誌訊息放置到訂閱的串流。
若要查看 Lambda 函數的輸出,請導覽至 Lambda 函數,其中您將會在 /aws/lambda/helloworld 中看到輸出:
aws logs put-log-events --log-group-name Example1 --log-stream-name logStream1 --log-events "[{\"timestamp\":
CURRENT TIMESTAMP MILLIS
, \"message\": \"Simple Lambda Test\"}]"預期會看到含一系列 Lambda 的回應。Lambda 記錄中的 Data (資料) 屬性是以 Base64 編碼並以 gzip 格式壓縮。Lambda 收到的實際酬載為以下格式:
{ "awslogs": {"data": "BASE64ENCODED_GZIP_COMPRESSED_DATA"} }
。您可以從命令列使用以下 Unix 命令來檢視原始資料:echo -n "<BASE64ENCODED_GZIP_COMPRESSED_DATA>" | base64 -d | zcat
Base64 解碼和解壓縮資料是以 JSON 形式並以下列結構進行格式化:
{ "messageType": "DATA_MESSAGE", "owner": "123456789012", "logGroup": "Example1", "logStream": "logStream1", "subscriptionFilters": [ "ExamplePolicyLambda" ], "logEvents": [ { "id": "31953106606966983378809025079804211143289615424298221568", "timestamp": 1432826855000, "message": "{\"eventVersion\":\"1.03\",\"userIdentity\":{\"type\":\"Root\"}" }, { "id": "31953106606966983378809025079804211143289615424298221569", "timestamp": 1432826855000, "message": "{\"eventVersion\":\"1.03\",\"userIdentity\":{\"type\":\"Root\"}" }, { "id": "31953106606966983378809025079804211143289615424298221570", "timestamp": 1432826855000, "message": "{\"eventVersion\":\"1.03\",\"userIdentity\":{\"type\":\"Root\"}" } ], "policyLevel": "ACCOUNT_LEVEL_POLICY" }
注意
帳戶層級訂閱篩選器不會套用至目的地 Lambda 函數的日誌群組。這是為了防止可能導致擷取計費增加的無限記錄遞迴。如需此問題的詳細資訊,請參閱防止記錄遞迴。
數據結構中的關鍵要素如下:
- messageType
-
資料訊息將使用「DATA_MESSAGE」類型。有時,記 CloudWatch 錄檔可能會發出具有「CONTROL_MESSAGE」類型的 Kinesis Data Streams 記錄,主要用於檢查目的地是否可連線。
- owner
-
原始記錄檔資料的 AWS 帳戶 ID。
- logGroup
-
原始日誌資料的日誌群組名稱。
- logStream
-
原始日誌資料的日誌串流名稱。
- subscriptionFilters
-
與原始日誌資料相符的訂閱篩選條件名稱清單。
- logEvents
-
實際的日誌資料,以一系列的日誌事件記錄呈現。「id」屬性是每個記錄事件的唯一識別符。
- 政策層級
-
強制執行策略的層級。「帳戶層級 _ 政策」是用於帳戶層級的
policyLevel
訂閱過濾策略。
範例 3:使用 Amazon 資料 Firehose 的訂閱篩選器
在此範例中,您將建立 CloudWatch Logs 帳戶層級訂閱篩選政策,該政策會將符合定義篩選器的傳入日誌事件傳送到 Amazon Data Firehose 交付串流。從 CloudWatch 日誌傳送到 Amazon 資料 Firehose 的資料已使用 gzip 等級 6 壓縮進行壓縮,因此您不需要在 Firehose 交付串流中使用壓縮。然後,您可以使用 Firehose 中的解壓縮功能來自動解壓縮記錄檔。如需詳細資訊,請參閱使 CloudWatch 用記錄寫入 Kinesis Data Firehose。
警告
建立 Firehose 串流之前,請先計算將產生的記錄資料量。請務必建立可處理此磁碟區的 Firehose 串流。如果串流無法處理磁碟區、日誌串流將受到限制。如需有關 Firehose 串流音量限制的詳細資訊,請參閱 Amazon 資料 Firehose 資料限制。
若要建立 Firehose 的訂閱篩選器
-
建立 Amazon Simple Storage Service (Amazon S3) 儲存貯體。我們建議您使用專門為 CloudWatch Logs 建立的值區。不過,如果您想要使用現有的儲存貯體,請跳到步驟 2。
執行以下命令,將預留位置 Region 換成您想要使用的區域:
aws s3api create-bucket --bucket
my-bucket
--create-bucket-configuration LocationConstraint=region
下列為範例輸出:
{ "Location": "/
my-bucket
" } -
建立 IAM 角色,以授與 Amazon 資料 Firehose 將資料放入您的 Amazon S3 儲存貯體的權限。
如需詳細資訊,請參閱 Amazon 資料 Firehose 開發人員指南中的使用 Amazon 資料 Firehose 控制存取。
首先,請按如下所示,使用文字編輯器來建立檔案
~/TrustPolicyForFirehose.json
中的信任政策:{ "Statement": { "Effect": "Allow", "Principal": { "Service": "firehose.amazonaws.com" }, "Action": "sts:AssumeRole" } }
-
使用 create-role 命令來建立 IAM 角色,並指定信任政策檔案。記下返回的 Role.Arn 值,因為您將在後面的步驟中需要它:
aws iam create-role \ --role-name FirehosetoS3Role \ --assume-role-policy-document file://~/TrustPolicyForFirehose.json
{ "Role": { "AssumeRolePolicyDocument": { "Statement": { "Action": "sts:AssumeRole", "Effect": "Allow", "Principal": { "Service": "firehose.amazonaws.com" } } }, "RoleId": "EXAMPLE50GAB4HC5F431", "CreateDate": "2023-05-29T13:46:29.431Z", "RoleName": "
FirehosetoS3Role
", "Path": "/", "Arn": "arn:aws:iam::123456789012
:role/FirehosetoS3Role
" } } -
建立權限原則,以定義 Firehose 可以對您的帳戶執行的動作。首先,使用文字編輯器來建立檔案
~/PermissionsForFirehose.json
中的許可政策:{ "Statement": [ { "Effect": "Allow", "Action": [ "s3:AbortMultipartUpload", "s3:GetBucketLocation", "s3:GetObject", "s3:ListBucket", "s3:ListBucketMultipartUploads", "s3:PutObject" ], "Resource": [ "arn:aws:s3:::
my-bucket
", "arn:aws:s3:::my-bucket
/*" ] } ] } -
使用下列 put-role-policy命令將權限原則與角色產生關聯:
aws iam put-role-policy --role-name
FirehosetoS3Role
--policy-namePermissions-Policy-For-Firehose
--policy-documentfile://~/PermissionsForFirehose
.json -
如下所示建立目的地 Firehose 傳遞串流,並以您建立的角色和值區 ARN 取代 Ro leARN 和 BuckeTARN 的預留位置值:
aws firehose create-delivery-stream \ --delivery-stream-name 'my-delivery-stream' \ --s3-destination-configuration \ '{"RoleARN": "arn:aws:iam::
123456789012
:role/FirehosetoS3Role", "BucketARN": "arn:aws:s3:::my-bucket
"}'對於交付的 Amazon S3 物件,自動使用以 YYYY/MM/DD/HH UTC 時間格式為單位的前綴。您可以指定在時間格式前綴前要新增的額外前綴。如果字首結尾是斜線 (/),則會在 Amazon S3 儲存貯體中顯示為資料夾。
-
等待幾分鐘,讓串流變為作用中狀態。您可以使用「Firehose」describe-delivery-stream指令來檢查。DeliveryStreamDescription DeliveryStreamStatus財產。此外,請注意 DeliveryStreamDescription. DeliveryStreamARN 值,因為您將在後面的步驟中需要它:
aws firehose describe-delivery-stream --delivery-stream-name "
my-delivery-stream
"{ "DeliveryStreamDescription": { "HasMoreDestinations": false, "VersionId": "1", "CreateTimestamp": 1446075815.822, "DeliveryStreamARN": "arn:aws:firehose:
us-east-1
:123456789012
:deliverystream/my-delivery-stream", "DeliveryStreamStatus": "ACTIVE", "DeliveryStreamName": "my-delivery-stream
", "Destinations": [ { "DestinationId": "destinationId-000000000001", "S3DestinationDescription": { "CompressionFormat": "UNCOMPRESSED", "EncryptionConfiguration": { "NoEncryptionConfig": "NoEncryption" }, "RoleARN": "delivery-stream-role", "BucketARN": "arn:aws:s3:::my-bucket
", "BufferingHints": { "IntervalInSeconds": 300, "SizeInMBs": 5 } } } ] } } -
建立 IAM 角色,以授與 CloudWatch 記錄檔權限,以將資料放入 Firehose 交付串流。首先,使用文字編輯器來建立檔案
~/TrustPolicyForCWL.json
中的信任政策:此政策包含
aws:SourceArn
全域條件內容金鑰,以協助預防混淆代理人安全問題。如需詳細資訊,請參閱 預防混淆代理人。{ "Statement": { "Effect": "Allow", "Principal": { "Service": "logs.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringLike": { "aws:SourceArn": "arn:aws:logs:
region
:123456789012
:*" } } } } -
使用 create-role 命令來建立 IAM 角色,並指定信任政策檔案。記下返回的 Role.Arn 值,因為您將在後面的步驟中需要它:
aws iam create-role \ --role-name
CWLtoKinesisFirehoseRole
\ --assume-role-policy-documentfile://~/TrustPolicyForCWL.json
{ "Role": { "AssumeRolePolicyDocument": { "Statement": { "Action": "sts:AssumeRole", "Effect": "Allow", "Principal": { "Service": "logs.amazonaws.com" }, "Condition": { "StringLike": { "aws:SourceArn": "arn:aws:logs:
region
:123456789012
:*" } } } }, "RoleId": "AAOIIAH450GAB4HC5F431
", "CreateDate": "2015-05-29T13:46:29.431Z", "RoleName": "CWLtoKinesisFirehoseRole
", "Path": "/", "Arn": "arn:aws:iam::123456789012:role/CWLtoKinesisFirehoseRole
" } } -
建立權限原則,以定義 CloudWatch Logs 可以對您的帳戶執行的動作。首先,使用文字編輯器來建立許可政策檔案 (例如,
~/PermissionsForCWL.json
):{ "Statement":[ { "Effect":"Allow", "Action":["firehose:PutRecord"], "Resource":[ "arn:aws:firehose:
region
:account-id
:deliverystream/delivery-stream-name
"] } ] } -
使用以下 put-role-policy命令將權限原則與角色產生關聯:
aws iam put-role-policy --role-name
CWLtoKinesisFirehoseRole
--policy-namePermissions-Policy-For-CWL
--policy-documentfile://~/PermissionsForCWL.json
-
Amazon Data Firehose 交付串流處於使用中狀態,且您已建立 IAM 角色之後,您可以建立 CloudWatch 日誌帳戶層級訂閱篩選政策。政策會立即啟動從所選日誌群組到 Amazon Data Firehose 交付串流的即時日誌資料流程:
aws logs put-account-policy \ --policy-name "ExamplePolicyFirehose" \ --policy-type "SUBSCRIPTION_FILTER_POLICY" \ --policy-document '{"RoleArn":"arn:aws:iam::
123456789012
:role/CWLtoKinesisFirehoseRole", "DestinationArn":"arn:aws:firehose:us-east-1
:123456789012
:deliverystream/delivery-stream-name", "FilterPattern": "Test", "Distribution": "Random"}' \ --selection-criteria 'LogGroupName NOT IN ["LogGroupToExclude1", "LogGroupToExclude2"]' \ --scope "ALL" -
設定訂閱篩選器後, CloudWatch 日誌會將符合篩選器模式的傳入日誌事件轉寄到 Amazon Data Firehose 交付串流。
此
selection-criteria
欄位是選擇性欄位,但對於排除可能導致訂閱篩選器無限記錄遞迴的記錄群組而言非常重要。如需有關此問題以及判斷要排除哪些記錄群組的詳細資訊,請參閱防止記錄遞迴。目前,NOT IN 是唯一支援的運算子selection-criteria
。您的資料將會根據 Amazon 資料 Firehose 交付串流上設定的時間緩衝區間隔開始顯示在 Amazon S3 中。一旦經過足夠的時間,您就可以檢查 Amazon S3 儲存貯體來驗證資料。
aws s3api list-objects --bucket '
my-bucket
' --prefix 'firehose/
'{ "Contents": [ { "LastModified": "2023-10-29T00:01:25.000Z", "ETag": "\"a14589f8897f4089d3264d9e2d1f1610\"", "StorageClass": "STANDARD", "Key": "firehose/2015/10/29/00/my-delivery-stream-2015-10-29-00-01-21-a188030a-62d2-49e6-b7c2-b11f1a7ba250", "Owner": { "DisplayName": "cloudwatch-logs", "ID": "1ec9cf700ef6be062b19584e0b7d84ecc19237f87b5" }, "Size": 593 }, { "LastModified": "2015-10-29T00:35:41.000Z", "ETag": "\"a7035b65872bb2161388ffb63dd1aec5\"", "StorageClass": "STANDARD", "Key": "firehose/2023/10/29/00/my-delivery-stream-2023-10-29-00-35-40-EXAMPLE-7e66-49bc-9fd4-fc9819cc8ed3", "Owner": { "DisplayName": "cloudwatch-logs", "ID": "EXAMPLE6be062b19584e0b7d84ecc19237f87b6" }, "Size": 5752 } ] }
aws s3api get-object --bucket '
my-bucket
' --key 'firehose/2023/10/29/00/my-delivery-stream-2023-10-29-00-01-21-a188030a-62d2-49e6-b7c2-b11f1a7ba250' testfile.gz{ "AcceptRanges": "bytes", "ContentType": "application/octet-stream", "LastModified": "Thu, 29 Oct 2023 00:07:06 GMT", "ContentLength": 593, "Metadata": {} }
在 Amazon S3 物件中的資料會以 gzip 格式壓縮。您可以使用以下 Unix 命令來透過命令列檢查原始資料:
zcat testfile.gz