Erstellen eines Flow-Protokolls, das in Amazon S3 veröffentlicht - Amazon Virtual Private Cloud

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erstellen eines Flow-Protokolls, das in Amazon S3 veröffentlicht

Nachdem Sie Ihren Amazon S3 S3-Bucket erstellt und konfiguriert haben, können Sie Flow-Logs für Ihre Netzwerkschnittstellen, Subnetze und VPCs erstellen.

Voraussetzung

Der IAM Principal, der das Flow-Protokoll erstellt, muss eine IAM Rolle verwenden, die über die folgenden Berechtigungen verfügt, die erforderlich sind, um Flow-Logs im Amazon S3 S3-Ziel-Bucket zu veröffentlichen.

{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "logs:CreateLogDelivery", "logs:DeleteLogDelivery" ], "Resource": "*" } ] }
So erstellen Sie ein Flow-Protokoll mithilfe der Konsole
  1. Führen Sie eine der folgenden Aktionen aus:

    • Öffnen Sie die EC2 Amazon-Konsole unter https://console.aws.amazon.com/ec2/. Wählen Sie im Navigationsbereich Network Interfaces aus. Aktivieren Sie das Kontrollkästchen für die Netzwerkschnittstelle.

    • Öffnen Sie die VPC Amazon-Konsole unter https://console.aws.amazon.com/vpc/. Wählen Sie im Navigationsbereich Ihr ausVPCs. Aktivieren Sie das Kontrollkästchen fürVPC.

    • Öffnen Sie die VPC Amazon-Konsole unter https://console.aws.amazon.com/vpc/. Wählen Sie im Navigationsbereich Subnetze aus. Aktivieren Sie das Kontrollkästchen für das Subnetz.

  2. Klicken Sie auf Actions (Aktionen), Create flow log (Flow-Protokoll erstellen).

  3. Geben Sie für Filter den Typ der zu protokollierenden IP-Verkehrsdaten an.

    • Akzeptieren — Nur akzeptierter Datenverkehr wird protokolliert.

    • Ablehnen — Nur abgelehnter Verkehr wird protokolliert.

    • Alle – Akzeptierten und abgelehnten Verkehr protokollieren.

  4. Wählen Sie unter Maximum aggregation interval (Maximales Aggregationsintervall) den maximalen Zeitraum aus, in dem ein Flow erfasst und zu einem Flow-Protokolldatensatz aggregiert wird.

  5. Wählen Sie für Destination (Ziel) die Option Send to an Amazon S3 bucket (An einen Amazon S3-Bucket senden).

  6. Geben Sie für S3-Bucket ARN den Amazon-Ressourcennamen (ARN) eines vorhandenen Amazon S3-Buckets an. Sie können optional einen Unterordner einfügen. Um beispielsweise einen Unterordner anzugeben, der my-logs in einem Bucket mit dem Namen benannt istmy-bucket, verwenden Sie Folgendes: ARN

    arn:aws:s3:::my-bucket/my-logs/

    Der Bucket kann als Unterordnername nicht AWSLogs verwenden, da dieser Begriff reserviert ist.

    Wenn Sie der Eigentümer des Buckets sind, erstellen wir automatisch eine Ressourcenrichtlinie und fügen sie dem Bucket hinzu. Weitere Informationen finden Sie unter Amazon S3-Bucket-Berechtigungen für Flow-Protokolle.

  7. Für Log record format (Datensatzformat protokollieren) geben Sie das Format für den Flow-Protokolldatensatz an.

    • Wenn Sie das Standardformat für Flow-Protokolldatensätze verwenden möchten, wählen Sie AWS default format (-Standardformat).

    • Wenn Sie ein benutzerdefiniertes Format erstellen möchten, wählen Sie Custom format (Benutzerdefiniertes Format). Wählen Sie für Protokollformat die Felder, die im Flow-Protokolldatensatz berücksichtigt werden sollen.

  8. Wählen Sie unter Zusätzliche Metadaten aus, ob Sie Metadaten von Amazon ECS in das Protokollformat aufnehmen möchten.

  9. Geben Sie für Log file format (Protokolldateiformat) das Format für die Protokolldatei an.

    • Text – Klartext. Dies ist das Standardformat.

    • Parquet – Apache Parquet ist ein spaltenförmiges Datenformat. Abfragen zu Daten im Parquet-Format sind 10 bis 100 Mal schneller im Vergleich zu Abfragen zu Daten im Klartext. Daten im Parquet-Format mit Gzip-Komprimierung benötigen 20 Prozent weniger Speicherplatz als Nur-Text bei Gzip-Komprimierung.

  10. (Optional) Um Hive-kompatible S3-Präfixe zu verwenden, wählen Sie Hive-compatible S3 prefix (Hive-kompatibles S3-Präfix), Enable (Aktivieren).

  11. (Optional) Um Ihre Flow-Protokolle pro Stunde zu partitionieren, wählen Sie Every 1 hour (60 mins) (Jede 1 Stunde (60 Minuten)).

  12. (Optional) Um dem Flow-Protokoll ein Tag hinzuzufügen, wählen Sie Add new tag (Neues Tag hinzufügen) und geben Sie den Tag-Schlüssel und -Wert an.

  13. Wählen Sie Create flow log (Flussprotokoll erstellen) aus.

So erstellen Sie ein Flow-Protokoll, das mithilfe eines Befehlszeilen-Tools in Amazon S3 veröffentlicht

Verwenden Sie einen der folgenden Befehle:

Das folgende AWS CLI Beispiel erstellt ein Flow-Protokoll, das den gesamten Datenverkehr für den angegebenen Datenverkehr erfasst VPC und die Flow-Logs an den angegebenen Amazon S3 S3-Bucket übermittelt. Der Parameter --log-format legt ein benutzerdefiniertes Format für die Flow-Protokolldatensätze fest.

aws ec2 create-flow-logs --resource-type VPC --resource-ids vpc-00112233344556677 --traffic-type ALL --log-destination-type s3 --log-destination arn:aws:s3:::flow-log-bucket/custom-flow-logs/ --log-format '${version} ${vpc-id} ${subnet-id} ${instance-id} ${srcaddr} ${dstaddr} ${srcport} ${dstport} ${protocol} ${tcp-flags} ${type} ${pkt-srcaddr} ${pkt-dstaddr}'