Exportieren von DB-Cluster-Daten nach Amazon S3 - Amazon Aurora

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Exportieren von DB-Cluster-Daten nach Amazon S3

Sie können Daten aus einem Live-DB-Cluster von Amazon Aurora in einen Amazon-S3-Bucket exportieren. Der Exportprozess läuft im Hintergrund und beeinträchtigt nicht die Leistung Ihres aktiven DB-Clusters.

Standardmäßig werden alle Daten im DB-Cluster exportiert. Sie können sich jedoch dafür entscheiden, bestimmte Sätze von Datenbanken, Schemata oder Tabellen zu exportieren.

Amazon Aurora klont den DB-Cluster, extrahiert Daten aus dem Klon und speichert die Daten in einem Amazon-S3-Bucket. Die Daten werden in einem Apache Parquet-Format gespeichert, das komprimiert und konsistent ist. Einzelne Parquet-Dateien sind normalerweise 1—10 MB groß.

Die schnellere Leistung, die Sie mit dem Export von Snapshot-Daten für Aurora MySQL Version 2 und Version 3 erzielen können, gilt nicht für den Export von DB-Cluster-Daten. Weitere Informationen finden Sie unter Exportieren von DB-Cluster-Snapshot-Daten nach Amazon S3.

Der Export des gesamten DB-Clusters wird Ihnen in Rechnung gestellt, unabhängig davon, ob Sie alle oder nur einen Teil der Daten exportieren. Weitere Informationen finden Sie auf der Seite Amazon-Aurora-Preise.

Nachdem die Daten exportiert wurden, können Sie die exportierten Daten direkt mit Tools wie Amazon Athena oder Amazon Redshift Spectrum analysieren. Weitere Informationen zur Verwendung von Athena zum Lesen von Parquet-Daten finden Sie unter Parquet SerDe im Amazon Athena Athena-Benutzerhandbuch. Weitere Informationen zur Verwendung von Redshift Spectrum zum Lesen von Parquet-Daten finden Sie unter COPY from columnar data formats im Amazon Redshift Database Developer Guide.

Die Verfügbarkeit von Funktionen und der Support variieren zwischen bestimmten Versionen der einzelnen Datenbank-Engines und in allen AWS-Regionen. Weitere Informationen zur Versions- und Regionsverfügbarkeit beim Exportieren von DB-Cluster-Daten nach S3 finden Sie unter Unterstützte Regionen und Aurora-DB-Engines für den Export von Clusterdaten nach Amazon S3.

Einschränkungen

Das Exportieren von DB-Cluster-Daten nach Amazon S3 unterliegt folgenden Einschränkungen:

  • Sie können nicht mehrere Exportaufgaben für denselben DB-Cluster gleichzeitig ausführen. Dies gilt sowohl für vollständige als auch Teilexporte.

  • Pro Person können bis zu fünf DB-Snapshot-Exportaufgaben gleichzeitig ausgeführt werden. AWS-Konto

  • DB-Cluster von Aurora Serverless v1 unterstützen keine Exporte nach S3.

  • Aurora MySQL und Aurora PostgreSQL unterstützen Exporte nach S3 nur für den bereitgestellten Engine-Modus.

  • Exporte nach S3 unterstützen keine S3-Präfixe, die einen Doppelpunkt (:) enthalten.

  • Die folgenden Zeichen im S3-Dateipfad werden während des Exports in Unterstriche (_) konvertiert:

    \ ` " (space)
  • Wenn eine Datenbank, ein Schema oder eine Tabelle andere Zeichen als den folgenden enthält, wird ein teilweiser Export nicht unterstützt. Sie können jedoch den gesamten DB-Cluster exportieren.

    • Lateinische Buchstaben (A–Z)

    • Ziffern (0–9)

    • Dollar-Symbol ($)

    • Unterstrich (_)

  • Leerzeichen ( ) und bestimmte andere Zeichen werden in den Spaltennamen von Datenbanktabellen nicht unterstützt. Tabellen mit den folgenden Zeichen in Spaltennamen werden beim Export übersprungen:

    , ; { } ( ) \n \t = (space)
  • Tabellen mit Schrägstrichen (/) im Namen werden beim Export übersprungen.

  • Temporäre und nicht protokollierte Tabellen von Aurora PostgreSQL werden beim Export übersprungen.

  • Wenn die Daten ein großes Objekt wie BLOB oder CLOB mit einer Größe von 500 MB oder mehr enthalten, schlägt der Export fehl.

  • Wenn eine Zeile in einer Tabelle ca. 2 GB groß oder noch größer ist, wird die Tabelle beim Export übersprungen.

  • Bei Teilexporten hat die ExportOnly Liste eine maximale Größe von 200 KB.

  • Es wird dringend empfohlen, für jede Exportaufgabe einen eindeutigen Namen zu verwenden. Wenn Sie keinen eindeutigen Aufgabennamen verwenden, erhalten Sie möglicherweise die folgende Fehlermeldung:

    ExportTaskAlreadyExistsFehler: Beim Aufrufen des StartExportTask Vorgangs ist ein Fehler aufgetreten (ExportTaskAlreadyExists): Die Exportaufgabe mit der ID xxxxx ist bereits vorhanden.

  • Da einige Tabellen möglicherweise übersprungen werden, empfehlen wir, nach dem Export die Anzahl der Zeilen und Tabellen in den Daten zu überprüfen.

Übersicht über das Exportieren von DB-Cluster-Daten

Sie verwenden den folgenden Prozess, um DB-Cluster-Daten in einen Amazon-S3-Bucket zu exportieren. Weitere Informationen finden Sie in den folgenden Abschnitten.

  1. Identifizieren Sie den DB-Cluster, dessen Daten Sie exportieren möchten.

  2. Richten Sie den Zugriff auf den Amazon S3-Bucket ein.

    Ein Bucket ist ein Container für Amazon S3-Objekte oder -Dateien. Um die Informationen für den Zugriff auf einen Bucket bereitzustellen, führen Sie die folgenden Schritte aus:

    1. Identifizieren Sie den S3-Bucket, in den die DB-Cluster-Daten exportiert werden soll. Der S3-Bucket muss sich in derselben AWS -Region wie der Cluster befinden. Weitere Informationen finden Sie unter Identifizieren des Amazon S3-Buckets, in den exportiert werden soll.

    2. Erstellen Sie eine AWS Identity and Access Management (IAM-) Rolle, die der Exportaufgabe des DB-Clusters Zugriff auf den S3-Bucket gewährt. Weitere Informationen finden Sie unter Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle.

  3. Erstellen Sie eine symmetrische Verschlüsselung AWS KMS key für die serverseitige Verschlüsselung. Der KMS-Schlüssel wird von der Cluster-Exportaufgabe verwendet, um die AWS KMS serverseitige Verschlüsselung beim Schreiben der Exportdaten nach S3 einzurichten.

    Die KMS-Schlüsselrichtlinie muss die beiden Berechtigungen kms:CreateGrant und kms:DescribeKey enthalten. Weitere Informationen zur Verwendung von KMS-Schlüsseln in Amazon Aurora finden Sie unter AWS KMS key-Verwaltung.

    Wenn Ihre KMS-Schlüsselrichtlinie eine Deny-Anweisung enthält, stellen Sie sicher, dass Sie den AWS Dienstprinzipal export.rds.amazonaws.com explizit ausschließen.

    Sie können einen KMS-Schlüssel in Ihrem AWS Konto oder einen kontoübergreifenden KMS-Schlüssel verwenden. Weitere Informationen finden Sie unter Ein kontoübergreifendes Konto verwenden AWS KMS key.

  4. Exportieren Sie den DB-Cluster mit der Konsole oder dem CLI-Befehl start-export-task nach Amazon S3. Weitere Informationen finden Sie unter Exportieren von DB-Cluster-Daten in einen Amazon-S3-Bucket.

  5. Um auf Ihre exportierten Daten im Amazon S3-Bucket zuzugreifen, siehe Hochladen, Herunterladen und Verwalten von Objekten im Amazon Simple Storage Service User Guide.

Einrichten des Zugriffs auf einen Amazon S3-Bucket

Sie identifizieren den Amazon-S3-Bucket und gewähren der DB-Cluster-Exportaufgabe die Berechtigung, darauf zuzugreifen.

Identifizieren des Amazon S3-Buckets, in den exportiert werden soll

Identifizieren Sie den Amazon-S3-Bucket, in den die DB-Cluster-Daten exportiert werden sollen. Verwenden Sie einen vorhandenen S3-Bucket oder erstellen Sie einen neuen S3-Bucket.

Anmerkung

Der S3-Bucket muss sich in derselben AWS Region wie der DB-Cluster befinden.

Weitere Informationen zur Arbeit mit Amazon S3-Buckets finden Sie im Amazon Simple Storage Service User Guide:

Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle

Bevor Sie DB-Cluster-Daten nach Amazon S3 exportieren, gewähren Sie den Exportaufgaben Schreibzugriff auf den Amazon-S3-Bucket.

Zum Gewähren dieser Berechtigung erstellen Sie eine IAM-Richtlinie, die Zugriff auf den Bucket ermöglicht. Erstellen Sie dann eine IAM-Rolle und fügen Sie der Rolle die Richtlinie an. Die IAM-Rolle können Sie später Ihrer DB-Cluster-Exportaufgabe zuweisen.

Wichtig

Wenn Sie planen, den für den Export Ihres DB-Clusters AWS Management Console zu verwenden, können Sie festlegen, dass die IAM-Richtlinie und die Rolle automatisch erstellt werden, wenn Sie den DB-Cluster exportieren. Anweisungen finden Sie unter Exportieren von DB-Cluster-Daten in einen Amazon-S3-Bucket.

So erteilen Sie Aufgaben Zugriff auf Amazon S3
  1. Erstellen Sie eine IAM-Richtlinie. Diese Richtlinie bietet dem Bucket und den Objekten Berechtigungen, die Ihrer DB-Cluster-Exportaufgabe Zugriff auf Amazon S3 erlauben.

    Die Richtlinie muss die folgenden erforderlichen Aktionen enthalten, um die Übertragung von Dateien aus Amazon Aurora in einen S3-Bucket zu erlauben:

    • s3:PutObject*

    • s3:GetObject*

    • s3:ListBucket

    • s3:DeleteObject*

    • s3:GetBucketLocation

    Fügen Sie in die Richtlinie die folgenden Ressourcen zur Identifizierung des S3-Buckets und der Objekte im Bucket ein. Die folgende Liste von Ressourcen zeigt das ARN-Format (Amazon-Ressourcenname) für den Amazon S3-Zugriff.

    • arn:aws:s3:::DOC-EXAMPLE-BUCKET

    • arn:aws:s3:::DOC-EXAMPLE-BUCKET/*

    Weitere Informationen zur Erstellung einer IAM-Richtlinie für Amazon Aurora finden Sie unter Erstellen und Verwenden einer IAM-Richtlinie für den IAM-Datenbankzugriff. Siehe auch Tutorial: Erstellen und Anfügen Ihrer ersten vom Kunden verwalteten Richtlinie im IAM-Benutzerhandbuch.

    Mit dem folgenden AWS CLI Befehl wird eine IAM-Richtlinie ExportPolicy mit diesen Optionen erstellt. Er gewährt Zugriff auf einen Bucket mit dem Namen DOC-EXAMPLE-BUCKET.

    Anmerkung

    Nachdem Sie die Richtlinie erstellt haben, notieren Sie den ARN der Richtlinie. Sie benötigen den ARN für einen nachfolgenden Schritt, in dem Sie die Richtlinie an eine IAM-Rolle anhängen.

    aws iam create-policy --policy-name ExportPolicy --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "ExportPolicy", "Effect": "Allow", "Action": [ "s3:PutObject*", "s3:ListBucket", "s3:GetObject*", "s3:DeleteObject*", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-BUCKET", "arn:aws:s3:::DOC-EXAMPLE-BUCKET/*" ] } ] }'
  2. Erstellen Sie eine IAM-Rolle, damit Aurora diese IAM-Rolle in Ihrem Namen übernehmen kann, um auf Ihre Amazon-S3-Buckets zuzugreifen. Weitere Informationen finden Sie unter Erstellen einer Rolle zum Delegieren von Berechtigungen an einen IAM-Benutzer im IAM-Benutzerhandbuch.

    Das folgende Beispiel zeigt, wie der AWS CLI Befehl verwendet wird, um eine Rolle mit dem Namen zu erstellen. rds-s3-export-role

    aws iam create-role --role-name rds-s3-export-role --assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "export.rds.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }'
  3. Fügen Sie die erstellte IAM-Richtlinie der IAM-Rolle an, die Sie erstellt haben.

    Mit dem folgenden AWS CLI Befehl wird die zuvor erstellte Richtlinie an die angegebene rds-s3-export-role Rolle angehängt. Ersetzen Sie your-policy-arn durch den Richtlinien-ARN, den Sie in einem früheren Schritt notiert haben.

    aws iam attach-role-policy --policy-arn your-policy-arn --role-name rds-s3-export-role

Einen kontoübergreifenden Amazon-S3-Bucket verwenden

Sie können S3-Buckets kontenübergreifend AWS verwenden. Weitere Informationen finden Sie unter Einen kontoübergreifenden Amazon-S3-Bucket verwenden.

Exportieren von DB-Cluster-Daten in einen Amazon-S3-Bucket

Sie können bis zu fünf gleichzeitige DB-Cluster-Exportaufgaben pro AWS-Konto durchführen.

Anmerkung

Das Exportieren von DB-Cluster-Daten kann je nach Datenbanktyp und -größe eine Weile dauern. Die Exportaufgabe klont zuerst die gesamte Datenbank und skaliert sie, bevor die Daten in Amazon S3 extrahiert werden. Der Fortschritt des Vorgangs während dieser Phase wird als Starting (Startet) angezeigt. Wenn die Aufgabe zum Exportieren von Daten zu S3 wechselt, wird der Fortschritt als In progress (In Bearbeitung) angezeigt.

Die Zeit, die für den Export benötigt wird, hängt von den in der Datenbank gespeicherten Daten ab. Beispielsweise exportieren Tabellen mit gut verteilten numerischen Primärschlüssel- oder Indexspalten am schnellsten. Bei Tabellen, die keine Spalte enthalten, die für die Partitionierung geeignet ist, und bei Tabellen mit nur einem Index für eine auf Zeichenfolgen basierende Spalte, dauert dies länger, da der Export einen langsameren Single-Thread-Prozess verwendet.

Sie können DB-Cluster-Daten mit der AWS Management Console, der oder der RDS-API nach Amazon S3 exportieren. AWS CLI

Wenn Sie eine Lambda-Funktion zum Exportieren der DB-Cluster-Daten verwenden, fügen Sie die Aktion kms:DescribeKey der Lambda-Funktionsrichtlinie hinzu. Weitere Informationen finden Sie unter AWS Lambda Berechtigungen.

Die Konsolenoption Export to Amazon S3 (Nach Amazon S3 exportieren) wird nur für DB-Cluster angezeigt, die nach Amazon S3 exportiert werden können. Ein DB-Cluster ist aus folgenden Gründen möglicherweise nicht für den Export verfügbar:

  • Die DB-Engine wird für den S3-Export nicht unterstützt.

  • Die DB-Cluster-Version wird für den S3-Export nicht unterstützt.

  • Der S3-Export wird in der AWS Region, in der der DB-Cluster erstellt wurde, nicht unterstützt.

So exportieren Sie DB-Cluster-Daten
  1. Melden Sie sich bei der Amazon RDS-Konsole an AWS Management Console und öffnen Sie sie unter https://console.aws.amazon.com/rds/.

  2. Wählen Sie im Navigationsbereich Datenbanken aus.

  3. Wählen Sie den DB-Cluster aus, dessen Daten Sie exportieren möchten.

  4. Wählen Sie für Actions (Aktionen) die Option Export to Amazon S3 (Nach Amazon S3 exportieren) aus.

    Das Fenster Export to Amazon S3 (Nach Amazon S3 exportieren) erscheint.

  5. Geben Sie für Export identifier (Export-ID) einen Namen ein, um die Exportaufgabe zu identifizieren. Dieser Wert wird auch für den Namen der im S3-Bucket erstellten Datei verwendet.

  6. Wählen Sie die zu exportierenden Daten aus:

    • Wählen Sie All (Alle) aus, um alle Daten im DB-Cluster zu exportieren.

    • Wählen Sie Partial (Teilweise) aus, um bestimmte Teile des DB-Clusters zu exportieren. Um zu ermitteln, welche Teile des Clusters exportiert werden sollen, geben Sie eine oder mehrere Datenbanken, Schemas oder Tabellen für Bezeichner ein, getrennt durch Leerzeichen.

      Verwenden Sie das folgende Format:

      database[.schema][.table] database2[.schema2][.table2] ... databasen[.scheman][.tablen]

      Zum Beispiel:

      mydatabase mydatabase2.myschema1 mydatabase2.myschema2.mytable1 mydatabase2.myschema2.mytable2
  7. Wählen Sie für S3 bucket (S3-Bucket) den Bucket aus, in den exportiert werden soll.

    Um die exportierten Daten einem Ordnerpfad im S3-Bucket zuzuordnen, geben Sie den optionalen Pfad für S3 prefix (S3-Präfix) ein.

  8. Wählen Sie für die IAM-Rolle entweder eine Rolle, die Ihnen Schreibzugriff auf den gewählten S3-Bucket gewährt, oder erstellen Sie eine neue Rolle.

    • Wenn Sie eine Rolle durch Befolgen der Schritte in Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle erstellt haben, wählen Sie diese Rolle.

    • Wenn Sie keine Rolle erstellt haben, die Ihnen Schreibzugriff auf den von Ihnen gewählten S3-Bucket gewährt, wählen Sie Create a new role (Neue Rolle erstellen) aus, um die Rolle automatisch zu erstellen. Geben Sie dann unter IAM role name (IAM-Rollenname) einen Namen für die Rolle ein.

  9. Geben Sie für KMS key (KMS-Schlüssel) den ARN für den Schlüssel ein, der für die Verschlüsselung der exportierten Daten verwendet werden soll.

  10. Wählen Sie Export to Amazon S3 (Nach Amazon S3 exportieren) aus.

Um DB-Cluster-Daten mit dem nach Amazon S3 zu exportieren AWS CLI, verwenden Sie den Befehl start-export-task mit den folgenden erforderlichen Optionen:

  • --export-task-identifier

  • --source-arn – Der Amazon-Ressourcenname (ARN) des DB-Clusters.

  • --s3-bucket-name

  • --iam-role-arn

  • --kms-key-id

In den folgenden Beispielen heißt die Exportaufgabe my-cluster-export, wodurch die Daten in einen S3-Bucket mit dem Namen DOC-EXAMPLE-DESTINATION-BUCKET exportiert werden.

LinuxmacOSFürUnix, oder:

aws rds start-export-task \ --export-task-identifier my-cluster-export \ --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster \ --s3-bucket-name DOC-EXAMPLE-DESTINATION-BUCKET \ --iam-role-arn iam-role \ --kms-key-id my-key

Windows:

aws rds start-export-task ^ --export-task-identifier my-DB-cluster-export ^ --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster ^ --s3-bucket-name DOC-EXAMPLE-DESTINATION-BUCKET ^ --iam-role-arn iam-role ^ --kms-key-id my-key

Beispiel für eine Ausgabe folgt.

{ "ExportTaskIdentifier": "my-cluster-export", "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:my-cluster", "S3Bucket": "DOC-EXAMPLE-DESTINATION-BUCKET", "IamRoleArn": "arn:aws:iam:123456789012:role/ExportTest", "KmsKeyId": "my-key", "Status": "STARTING", "PercentProgress": 0, "TotalExtractedDataInGB": 0, }

Wenn Sie einen Ordnerpfad im S3-Bucket für den DB-Cluster-Export bereitstellen möchten, nehmen Sie die Option --s3-prefix in den Befehl start-export-task auf.

Um DB-Cluster-Daten mithilfe der Amazon RDS-API nach Amazon S3 zu exportieren, verwenden Sie den StartExportTask-Vorgang mit den folgenden erforderlichen Parametern:

  • ExportTaskIdentifier

  • SourceArn – der ARN des DB-Clusters

  • S3BucketName

  • IamRoleArn

  • KmsKeyId

Überwachen von DB-Cluster-Exportaufgaben

Sie können DB-Cluster-Exporte mithilfe der AWS Management Console AWS CLI, der oder der RDS-API überwachen.

So überwachen Sie DB-Cluster-Exporte
  1. Melden Sie sich bei der Amazon RDS-Konsole an AWS Management Console und öffnen Sie sie unter https://console.aws.amazon.com/rds/.

  2. Wählen Sie im Navigationsbereich die Option Exports in Amazon S3 (Exporte in Amazon S3) aus.

    DB-Cluster-Exporte werden in der Spalte Source type (Quelltyp) angegeben. Der Exportstatus wird in der Spalte Status angezeigt.

  3. Um ausführliche Informationen über einen bestimmten DB-Cluster-Export anzuzeigen, wählen Sie die Exportaufgabe aus.

Verwenden Sie den describe-export-tasksBefehl AWS CLI, um DB-Cluster-Exportaufgaben mithilfe von zu überwachen.

Das folgende Beispiel zeigt, wie Sie aktuelle Informationen über alle Ihre DB-Cluster-Exporte anzeigen können.

aws rds describe-export-tasks { "ExportTasks": [ { "Status": "CANCELED", "TaskEndTime": "2022-11-01T17:36:46.961Z", "S3Prefix": "something", "S3Bucket": "DOC-EXAMPLE-BUCKET", "PercentProgress": 0, "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY", "ExportTaskIdentifier": "anewtest", "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3", "TotalExtractedDataInGB": 0, "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:parameter-groups-test" }, { "Status": "COMPLETE", "TaskStartTime": "2022-10-31T20:58:06.998Z", "TaskEndTime": "2022-10-31T21:37:28.312Z", "WarningMessage": "{\"skippedTables\":[],\"skippedObjectives\":[],\"general\":[{\"reason\":\"FAILED_TO_EXTRACT_TABLES_LIST_FOR_DATABASE\"}]}", "S3Prefix": "", "S3Bucket": "DOC-EXAMPLE-BUCKET1", "PercentProgress": 100, "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY", "ExportTaskIdentifier": "thursday-events-test", "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3", "TotalExtractedDataInGB": 263, "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-31-06-44" }, { "Status": "FAILED", "TaskEndTime": "2022-10-31T02:12:36.409Z", "FailureCause": "The S3 bucket DOC-EXAMPLE-BUCKET2 isn't located in the current AWS Region. Please, review your S3 bucket name and retry the export.", "S3Prefix": "", "S3Bucket": "DOC-EXAMPLE-BUCKET2", "PercentProgress": 0, "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY", "ExportTaskIdentifier": "wednesday-afternoon-test", "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3", "TotalExtractedDataInGB": 0, "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-30-06-45" } ] }

Wenn Sie Informationen über eine bestimmte Exportaufgabe anzeigen möchten, nehmen Sie die Option --export-task-identifier in den Befehl describe-export-tasks auf. Um die Ausgabe zu filtern, fügen Sie die Option --Filters ein. Weitere Optionen finden Sie im describe-export-tasksBefehl.

Verwenden Sie den Vorgang DescribeExportTasks, um Informationen zu DB-Cluster-Exporten mithilfe der Amazon RDS-API anzuzeigen.

Um den Abschluss des Exportworkflows zu verfolgen oder einen anderen Workflow zu initiieren, können Sie Themen von Amazon Simple Notification Service abonnieren. Weitere Informationen zu Amazon SNS finden Sie unter Arbeiten mit Amazon-RDS-Ereignisbenachrichtigungen.

Abbrechen einer DB-Cluster-Exportaufgabe

Sie können eine DB-Cluster-Exportaufgabe mithilfe der AWS Management Console AWS CLI, der oder der RDS-API abbrechen.

Anmerkung

Durch das Abbrechen einer Exportaufgabe werden keine Daten entfernt, die nach Amazon S3 exportiert wurden. Informationen zum Löschen der Daten über die Konsole finden Sie unter Wie lösche ich Objekte aus einem S3-Bucket?. Um die Daten mit der CLI zu löschen, verwenden Sie den Befehl delete-object.

So brechen Sie eine DB-Cluster-Exportaufgabe ab
  1. Melden Sie sich bei der Amazon RDS-Konsole an AWS Management Console und öffnen Sie sie unter https://console.aws.amazon.com/rds/.

  2. Wählen Sie im Navigationsbereich die Option Exports in Amazon S3 (Exporte in Amazon S3) aus.

    DB-Cluster-Exporte werden in der Spalte Source type (Quelltyp) angegeben. Der Exportstatus wird in der Spalte Status angezeigt.

  3. Wählen Sie die Exportaufgabe aus, die Sie abbrechen möchten.

  4. Klicken Sie auf Abbrechen.

  5. Wählen Sie die Bestätigungsseite Cancel export task (Exportaufgabe abbrechen) aus.

Um eine Exportaufgabe mit dem abzubrechen AWS CLI, verwenden Sie den Befehl cancel-export-task. Der Befehl erfordert die Option --export-task-identifier.

aws rds cancel-export-task --export-task-identifier my-export { "Status": "CANCELING", "S3Prefix": "", "S3Bucket": "DOC-EXAMPLE-BUCKET", "PercentProgress": 0, "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY", "ExportTaskIdentifier": "my-export", "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3", "TotalExtractedDataInGB": 0, "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:export-example-1" }

Um eine Exportaufgabe mithilfe der Amazon RDS-API abzubrechen, verwenden Sie den Vorgang CancelExportTask mit dem ExportTaskIdentifier Parameter.

Fehlermeldungen für Amazon-S3-Exportaufgaben

In der folgenden Tabelle werden die Nachrichten beschrieben, die zurückgegeben werden, wenn Amazon-S3-Exportaufgaben fehlschlagen.

Fehlernachricht Beschreibung
Der Quell-DB-Cluster konnte nicht gefunden werden oder es konnte nicht darauf zugegriffen werden: [Clustername] Der Quell-DB-Cluster kann nicht geklont werden.
Ein unbekannter interner Fehler ist aufgetreten.

Die Aufgabe ist fehlgeschlagen, da eine unbekannte Störung, eine Ausnahme oder ein Fehler aufgetreten ist.

Beim Schreiben der Metadaten der Exportaufgabe in den S3-Bucket [Bucket-Name] ist ein unbekannter interner Fehler aufgetreten.

Die Aufgabe ist fehlgeschlagen, da eine unbekannte Störung, eine Ausnahme oder ein Fehler aufgetreten ist.

Der RDS-Export konnte die Metadaten der Exportaufgabe nicht schreiben, da er die IAM-Rolle [Rolle ARN] nicht übernehmen kann.

Die Exportaufgabe geht davon aus, dass Ihre IAM-Rolle überprüft, ob es erlaubt ist Metadaten in Ihren S3-Bucket zu schreiben Wenn die Aufgabe Ihre IAM-Rolle nicht übernehmen kann, schlägt sie fehl.

Der RDS-Export konnte die Metadaten der Exportaufgabe nicht in den S3-Bucket [Bucket-Name] mit der IAM-Rolle [Rolle ARN] mit dem KMS-Schlüssel [Schlüssel-ID] schreiben. Fehlercode: [Fehlercode]

Eine oder mehrere Berechtigungen fehlen, sodass die Exportaufgabe nicht auf den S3-Bucket zugreifen kann. Diese Fehlermeldung wird ausgelöst, wenn einer der folgenden Fehlercodes empfangen wird:

  • AWSSecurityTokenServiceException mit dem Fehlercode AccessDenied

  • AmazonS3Exception mit dem Fehlercode NoSuchBucket, AccessDenied, KMS.KMSInvalidStateException, 403 Forbidden, oder KMS.DisabledException

Diese Fehlercodes weisen darauf hin, dass für die IAM-Rolle, den S3-Bucket oder den KMS-Schlüssel Einstellungen falsch konfiguriert sind.

Die IAM-Rolle [Rolle ARN] ist nicht berechtigt, [S3-Aktion] im S3-Bucket [Bucket-Name] aufzurufen. Überprüfen Sie Ihre Berechtigungen und versuchen Sie den Export erneut.

Die IAM-Richtlinie ist falsch konfiguriert. Die Berechtigung für die spezifische S3-Aktion für den S3-Bucket fehlt, was zu einem Fehler der Exportaufgabe führt.

Fehler bei der Überprüfung des KMS-Schlüssels. Überprüfen Sie die Anmeldeinformation Ihres KMS-Schlüssels und versuchen Sie es erneut. Die Überprüfung der KMS-Schlüsselanmeldeinformationen ist fehlgeschlagen.
Die Überprüfung der S3-Anmeldeinformation ist fehlgeschlagen. Überprüfen Sie die Berechtigungen für Ihren S3-Bucket und Ihre IAM-Richtlinie. Die Überprüfung der S3-Anmeldeinformation ist fehlgeschlagen.
Der S3-Bucket [Bucket-Name] ist ungültig. Entweder befindet sie sich nicht in der aktuellen AWS-Region oder es gibt sie nicht. Überprüfen Sie Ihren S3-Bucket-Namen und versuchen Sie den Export erneut. Der S3-Bucket ist ungültig.
Der S3-Bucket [Bucket-Name] befindet sich nicht in der aktuellen AWS-Region. Überprüfen Sie Ihren S3-Bucket-Namen und versuchen Sie den Export erneut. Der S3-Bucket ist falsch AWS-Region.

Fehlerbehebung bei PostgreSQL-Berechtigungsfehlern

Beim Exportieren von PostgreSQL-Datenbanken in Amazon S3 wird möglicherweise ein PERMISSIONS_DO_NOT_EXIST-Fehler angezeigt, der besagt, dass bestimmte Tabellen übersprungen wurden. Dieser Fehler tritt normalerweise auf, wenn der Superuser, den Sie beim Erstellen des DB-Clusters angegeben haben, keine Berechtigungen für den Zugriff auf diese Tabellen besitzt.

Führen Sie den folgenden Befehl aus, um diesen Fehler zu beheben:

GRANT ALL PRIVILEGES ON ALL TABLES IN SCHEMA schema_name TO superuser_name

Weitere Informationen zu Superuser-Berechtigungen finden Sie unter Berechtigungen von Hauptbenutzerkonten.

Benennungskonvention für Dateien

Exportierte Daten für bestimmte Tabellen werden im Format base_prefix/files gespeichert, wobei das Basispräfix folgendes ist:

export_identifier/database_name/schema_name.table_name/

Beispielsweise:

export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/

Ausgabedateien verwenden die folgende Benennungskonvention, wobei partition_index alphanumerisch ist:

partition_index/part-00000-random_uuid.format-based_extension

Beispielsweise:

1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet

Die Namenskonvention für Dateien kann geändert werden. Daher empfehlen wir beim Lesen von Zieltabellen, dass Sie alles innerhalb des Basispräfixes für die Tabelle lesen.

Datenkonvertierung und Speicherformat

Wenn Sie einen DB-Cluster in einen Amazon-S3-Bucket exportieren, konvertiert Amazon Aurora Daten in das Parquet-Format, exportiert Daten darin und speichert Daten im Parquet-Format. Weitere Informationen finden Sie unter Datenkonvertierung beim Exportieren in einen Amazon S3-Bucket.