Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Aurora SQL Postgre-Kompatible Integration mit Amazon S3
Amazon Simple Storage Service (Amazon S3) ist ein Objektspeicherservice, bei dem Kunden Daten speichern und schützen können. Amazon Aurora SQL Postgre-Compatible Edition lässt sich über die aws_s3
Erweiterung in Amazon S3 integrieren, die direkten Lese- und Schreibzugriff auf S3-Buckets bietet. Diese Integration erleichtert den Datenaustausch, einschließlich Datenaufnahme, Backups und anderer datenbezogener Vorgänge.
aws_s3-Anwendungsfälle und allgemeine Schritte
Die häufigsten allgemeinen Anwendungsfälle und Vorteile der Integration mit Amazon S3 sind die folgenden:
-
Datenaufnahme aus Amazon S3 ‒ Verwenden Sie die
aws_s3
Erweiterung, um Daten aus kommagetrennten Werten (CSV) oder anderen in Amazon S3 gespeicherten Dateiformaten direkt in eine Aurora Postgre-kompatible Tabelle zu laden. JSON SQL Dies ist besonders nützlich für Batch-Datenaufnahmeprozesse, Workflows ETL (Extrahieren, Transformieren und Laden) oder Datenmigrationen. -
Datenexport nach Amazon S3 ‒ Exportieren Sie Daten aus Aurora SQL Postgre-kompatiblen Tabellen in CSVJSON, oder andere Dateiformate und speichern Sie die Daten in Amazon S3. Dies ist nützlich für die Datenarchivierung, Backups oder die gemeinsame Nutzung von Daten mit anderen Systemen oder Diensten.
-
Direktes Abfragen von Daten aus Amazon S3 ‒ Fragen Sie in Amazon S3 gespeicherte Daten CSV oder JSON Dateien in Amazon S3 direkt aus Ihrer Aurora SQL Postgre-kompatiblen Datenbank ab, ohne die Daten in Tabellen zu laden. Dies ist nützlich für einmalige Datenanalysen oder explorative Datenverarbeitung.
-
Backup und Wiederherstellung ‒ Verwenden Sie Amazon S3 als Backup-Ziel für Ihre Aurora SQL Postgre-kompatiblen Datenbanken. Dies bietet eine zusätzliche Datenschutzebene, indem Ihre Daten vor unbefugtem Zugriff auf den Amazon S3 Speicher geschützt werden.
Gehen Sie wie folgt vor, um Ihren Aurora SQL Postgre-kompatiblen DB-Cluster in einen S3-Bucket zu integrieren:
-
Stellen Sie mithilfe eines SQL Postgre-Clients eine Connect zu Ihrem Aurora SQL Postgre-kompatiblen Cluster her und erstellen Sie die Erweiterung:
aws_s3
create extension aws_s3
-
Richten Sie den Zugriff auf den Amazon S3-Bucket ein. Eine ausführliche Anleitung finden Sie in der AWS Dokumentation.
-
Verwenden Sie eine PSQL-Abfrage, um die Daten aus der Datenbank zu importieren oder zu exportieren:
-
Führen Sie die folgenden Befehle aus, um die Datei aus Amazon S3 in eine Aurora SQL Postgre-kompatible Tabelle zu importieren:
SELECT aws_s3.table_import_from_s3( 'Table_Name', '', '(format text)', aws_commons.create_s3_uri('S3_BUCKETNAME', 'FileName.dat','Region-Name') );
-
Führen Sie den folgenden Befehl aus, um die Datei aus der Aurora SQL Postgre-Compatible-Tabelle nach Amazon S3 zu exportieren:
SELECT * FROM aws_s3.query_export_to_s3('TABLE_NAME', aws_commons.create_s3_uri('S3_BUCKETNAME', 'FileName.dat', 'Region-Name') );
-
Um mithilfe einer SQL Abfrage nach Amazon S3 zu exportieren, führen Sie den folgenden Befehl aus:
SELECT * FROM aws_s3.query_export_to_s3('SELECT * FROM data_table', aws_commons.create_s3_uri('S3_BUCKETNAME', 'FileName.dat', 'Region-Name') );
-