Laden von Daten in eine Datenbank - Amazon Redshift

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Laden von Daten in eine Datenbank

Mit dem Abfrage-Editor v2 können Sie Daten in eine Datenbank in einem Amazon-Redshift-Cluster oder einer Amazon-Redshift-Arbeitsgruppe laden.

Laden von Beispieldaten

Der Abfrage-Editor v2 umfasst Beispieldaten und -Notebooks, die in eine Beispieldatenbank und ein entsprechendes Schema geladen werden können.

Um Beispieldaten zu laden, wählen Sie das External-Symbol aus, das den zu ladenden Beispieldaten zugeordnet ist. Der Abfrage-Editor v2 lädt dann die Daten in ein Schema in der Datenbank sample_data_dev und erstellt einen Ordner mit gespeicherten Notebooks in Ihrem Ordner Notebooks.

Die folgenden Beispieldatensätze sind verfügbar.

Tickit

In den meisten Beispielen der Amazon-Redshift-Dokumentation werden Beispieldaten namens tickit verwendet. Diese Daten umfassen sieben Tabellen, zwei Faktentabellen und fünf Dimensionen. Wenn Sie diese Daten laden, wird das Schema tickit mit Beispieldaten aktualisiert. Weitere Informationen über tickit-Daten finden Sie unter Beispieldatenbank im Datenbankentwicklerhandbuch zu Amazon Redshift.

tpch

Diese Daten werden für ein Benchmarking zur Entscheidungsunterstützung verwendet. Wenn Sie diese Daten laden, wird das Schema tpch mit Beispieldaten aktualisiert. Weitere Informationen zu tpch-Daten finden Sie unter TPC-H.

tpcds

Diese Daten werden für ein Benchmarking zur Entscheidungsunterstützung verwendet. Wenn Sie diese Daten laden, wird das Schema tpcds mit Beispieldaten aktualisiert. Weitere Informationen zu tpcds-Daten finden Sie unter TPC-DS.

Daten aus Amazon S3 laden

Sie können Amazon-S3-Daten in eine vorhandene oder neue Tabelle laden.

Daten in eine vorhandene Tabelle laden

Der Abfrage-Editor v2 nutzt den Befehl COPY, um Daten aus Amazon S3 zu laden. Der Befehl COPY wird im Assistenten „Load data“ (Daten laden) des Abfrage-Editors v2 generiert und verwendet. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter COPY aus dem Amazon-Simple-Storage-Service im Datenbankentwicklerhandbuch zu Amazon Redshift.

  1. Vergewissern Sie sich, dass die Tabelle bereits in der Datenbank erstellt wurde, in die Sie Daten laden möchten.

  2. Vergewissern Sie sich in der Strukturansicht von Query Editor v2, dass Sie mit der Zieldatenbank verbunden sind, bevor Sie fortfahren. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

    Wählen Sie LoadLoad data (Daten laden) aus.

  3. Wählen Sie für Datenquelle die Option Aus S3-Bucket laden aus.

  4. Wählen Sie unter S3 URIs die Option Browse S3 (S3 durchsuchen) aus, um nach dem Amazon S3 Bucket zu suchen, der die zu ladenden Daten enthält.

  5. Wenn sich der angegebene Amazon S3 S3-Bucket nicht in derselben Tabelle befindet AWS-Region wie die Zieltabelle, wählen Sie den S3-Dateispeicherort für den AWS-Region Speicherort der Daten.

  6. Wählen Sie This file is a manifest file (Dies ist eine Manifestdatei), wenn die Amazon-S3-Datei tatsächlich ein Manifest ist, das mehrere Amazon-S3-Bucket-URIs enthält.

  7. Wählen Sie das File format (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen File options (Dateioptionen) auswählen. Sie können auch Data is encrypted (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

    Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das Trennzeichen auswählen und angeben, ob Sie die Kopfzeilen ignorieren möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

  8. Wählen Sie eine Komprimierungsmethode aus, mit der Ihre Datei komprimiert werden soll. Die Standardeinstellung ist keine Komprimierung.

  9. (Optional) In den Advanced settings (erweiterten Einstellungen) finden Sie verschiedene Data conversion parameters (Datenkonvertierungsparameter) und Load operations (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

    Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter Data conversion parameters (Datenkonvertierungsparameter) und Data load operations (Datenladeoperationen) im Amazon Redshift Database Developer Guide (Datenbankleitfaden zu Amazon Redshift).

  10. Wählen Sie Weiter aus.

  11. Wählen Sie Bestehende Tabelle laden aus.

  12. Bestätigen oder wählen Sie den Standort der Zieltabelle (Target table), einschließlich Cluster oder Arbeitsgruppe, Datenbank, Schema und Name der Tabelle, in die die Daten geladen werden.

  13. Wählen Sie eine IAM role (IAM-Rolle) aus, die über die erforderlichen Berechtigungen zum Laden von Daten aus Amazon S3 verfügt.

  14. (Optional) Wählen Sie Spaltennamen aus, um sie in das Feld Column mapping (Spaltenzuordnung) einzugeben, damit die Spalten in der Reihenfolge der Eingabedatendatei zugeordnet werden.

  15. Wählen Sie Load data (Daten laden), um das Laden der Daten zu starten.

    Nach Abschluss des Ladens wird der Abfrage-Editor mit dem generierten COPY-Befehl angezeigt, der zum Laden Ihrer Daten verwendet wurde. Das Result (Ergebnis) von COPY wird angezeigt. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL_LOAD_ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter STL_LOAD_ERRORS im Datenbankentwicklerhandbuch zu Amazon Redshift.

Wenn Sie Daten in eine neue Tabelle laden, erstellt Query Editor v2 zuerst die Tabelle in der Datenbank und lädt die Daten dann als separate Aktionen in demselben Workflow.

So laden Sie Daten in eine neue Tabelle

Der Abfrage-Editor v2 nutzt den Befehl COPY, um Daten aus Amazon S3 zu laden. Der Befehl COPY wird im Assistenten „Load data“ (Daten laden) des Abfrage-Editors v2 generiert und verwendet. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter COPY aus dem Amazon-Simple-Storage-Service im Datenbankentwicklerhandbuch zu Amazon Redshift.

  1. Vergewissern Sie sich in der Strukturansicht von Query Editor v2, dass Sie mit der Zieldatenbank verbunden sind, bevor Sie fortfahren. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

    Wählen Sie LoadLoad data (Daten laden) aus.

  2. Wählen Sie für Datenquelle die Option Aus S3-Bucket laden aus.

  3. Wählen Sie unter S3 URIs die Option Browse S3 (S3 durchsuchen) aus, um nach dem Amazon S3 Bucket zu suchen, der die zu ladenden Daten enthält.

  4. Wenn sich der angegebene Amazon S3 S3-Bucket nicht in derselben Tabelle befindet AWS-Region wie die Zieltabelle, wählen Sie den S3-Dateispeicherort für den AWS-Region Speicherort der Daten.

  5. Wählen Sie This file is a manifest file (Dies ist eine Manifestdatei), wenn die Amazon-S3-Datei tatsächlich ein Manifest ist, das mehrere Amazon-S3-Bucket-URIs enthält.

  6. Wählen Sie das File format (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen File options (Dateioptionen) auswählen. Sie können auch Data is encrypted (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

    Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das Trennzeichen auswählen und angeben, ob Sie die Kopfzeilen ignorieren möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

  7. Wählen Sie eine Komprimierungsmethode aus, mit der Ihre Datei komprimiert werden soll. Die Standardeinstellung ist keine Komprimierung.

  8. (Optional) In den Advanced settings (erweiterten Einstellungen) finden Sie verschiedene Data conversion parameters (Datenkonvertierungsparameter) und Load operations (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

    Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter Data conversion parameters (Datenkonvertierungsparameter) und Data load operations (Datenladeoperationen) im Amazon Redshift Database Developer Guide (Datenbankleitfaden zu Amazon Redshift).

  9. Wählen Sie Weiter aus.

  10. Wählen Sie Neue Tabelle laden aus.

    Die Tabellenspalten werden aus den Eingabedaten abgeleitet. Sie können die Definition des Tabellenschemas ändern, indem Sie Spalten und Tabellendetails hinzufügen. Um zum abgeleiteten Tabellenschema von Query Editor v2 zurückzukehren, wählen Sie Auf Standardwerte zurücksetzen aus.

  11. Bestätigen oder wählen Sie den Standort der Zieltabelle, einschließlich Cluster oder Arbeitsgruppe, Datenbank und Schema, in die die Daten geladen werden. Geben Sie einen Namen für die zu erstellende Tabelle ein.

  12. Wählen Sie eine IAM role (IAM-Rolle) aus, die über die erforderlichen Berechtigungen zum Laden von Daten aus Amazon S3 verfügt.

  13. Wählen Sie Tabelle erstellen aus, um die Tabelle unter Verwendung der angezeigten Definition zu erstellen.

    Eine Zusammenfassung der Tabellendefinition zur Überprüfung wird angezeigt. Die Tabelle wird in der Datenbank erstellt. Um die Tabelle später zu löschen, führen Sie einen SQL-Befehl DROP TABLE aus. Weitere Informationen finden Sie unter DROP TABLE im Datenbankentwicklerhandbuch zu Amazon Redshift.

  14. Wählen Sie Load data (Daten laden), um das Laden der Daten zu starten.

    Nach Abschluss des Ladens wird der Abfrage-Editor mit dem generierten COPY-Befehl angezeigt, der zum Laden Ihrer Daten verwendet wurde. Das Result (Ergebnis) von COPY wird angezeigt. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL_LOAD_ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter STL_LOAD_ERRORS im Datenbankentwicklerhandbuch zu Amazon Redshift.

Laden von Daten aus einer lokalen Datei – Einrichtung und Workflow

Sie können Daten aus einer lokalen Datei in eine vorhandene oder neue Tabelle laden.

Einrichtung durch den Administrator für das Laden von Daten aus einer lokalen Datei

Ihr Administrator für den Abfrage-Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster Account settings (Kontoeinstellungen) angeben. Die Kontobenutzer müssen mit den richtigen Berechtigungen konfiguriert werden.

  • Erforderliche IAM-Berechtigungen: Die Benutzer, die die Funktion zum Laden von Daten aus einer lokalen Datei verwenden sollen, müssen über die Berechtigungen s3:ListBucket, s3:GetBucketLocation, s3:putObject, s3:getObject und s3:deleteObject verfügen. optional-prefix kann angegeben werden, um die Verwendung dieses Buckets im Zusammenhang mit dem Abfrage-Editor v2 auf Objekte mit diesem Präfix zu beschränken. Diese Option könnten Sie verwenden, wenn Sie denselben Amazon-S3-Bucket auch für andere Zwecke als den Abfrage-Editor v2 verwenden. Weitere Informationen zu Buckets und Präfixen finden Sie unter Verwalten des Benutzerzugriffs auf bestimmte Ordner im Benutzerhandbuch zu Amazon Simple Storage Service. Um sicherzustellen, dass kein benutzerübergreifender Datenzugriff zulässig ist, empfehlen wir dem Administrator für Query Editor v2, eine Amazon-S3-Bucket-Richtlinie zu verwenden, um den Objektzugriff auf der Grundlage von aws:userid einzuschränken. Im folgenden Beispiel werden Amazon-S3-Berechtigungen für einen <staging-bucket-name> gewährt. Dabei besteht nur Lese-/Schreibzugriff auf Amazon-S3-Objekte mit dem Präfix aws:userid.

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:ListBucket", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::<staging-bucket-name>" ] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": [ "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*" ] } ] }
  • Datentrennung: Die Benutzer sollten keinen Zugriff auf die Daten der anderen Benutzer haben (auch nicht kurzzeitig). Beim Laden aus einer lokalen Datei wird der Amazon-S3-Staging-Bucket verwendet, der vom Administrator für den Abfrage-Editor v2 eingerichtet wurde. Konfigurieren Sie die Bucket-Richtlinie für den Staging-Bucket, um für eine Datentrennung zwischen Benutzern zu sorgen. Das folgende Beispiel zeigt eine Bucket-Richtlinie, die die Daten der Benutzer von <staging-bucket-name> trennt.

    { "Version": "2012-10-17", "Statement": [ {"Sid": "userIdPolicy", "Effect": "Deny", "Principal": "*", "Action": ["s3:PutObject", "s3:GetObject", "s3:DeleteObject"], "NotResource": [ "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*" ] } ] }

Laden von Daten aus einer lokalen Datei

So laden Sie Daten aus einer lokalen Datei in eine vorhandene Tabelle

Ihr Administrator für Query Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster Kontoeinstellungen angeben. Query Editor v2 lädt die lokale Datei automatisch in einen von Ihrem Konto verwendeten gemeinsamen Amazon-S3-Bucket hoch und verwendet dann den Befehl COPY zum Laden von Daten. Der Befehl COPY wird im Fenster „Load local file“ (Lokale Datei laden) des Abfrage-Editors v2 generiert und ausgeführt. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter COPY aus Amazon S3 im Datenbankentwicklerhandbuch zu Amazon Redshift.

  1. Vergewissern Sie sich, dass die Tabelle bereits in der Datenbank erstellt wurde, in die Sie Daten laden möchten.

  2. Vergewissern Sie sich in der Strukturansicht des Abfrageeditors v2, dass Sie mit der Zieldatenbank verbunden sind. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

  3. Wählen Sie LoadLoad data (Daten laden) aus.

  4. Wählen Sie für Data source (Datenquelle) die Option Load from local file (Aus lokaler Datei laden) aus.

  5. Wählen Sie Durchsuchen aus, um nach der Datei zu suchen, die die Daten für Datei laden enthält. Standardmäßig werden Dateien mit der Erweiterung .csv, .avro, .parquet und .orc angezeigt, Sie können jedoch auch andere Dateitypen auswählen. Die maximale -Dateigröße ist 100 MB.

  6. Wählen Sie das File format (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen File options (Dateioptionen) auswählen. Sie können auch Data is encrypted (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

    Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das Trennzeichen auswählen und angeben, ob Sie die Kopfzeilen ignorieren möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

  7. (Optional) In den Advanced settings (erweiterten Einstellungen) finden Sie verschiedene Data conversion parameters (Datenkonvertierungsparameter) und Load operations (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

    Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter Data conversion parameters (Datenkonvertierungsparameter) und Data load operations (Datenladeoperationen) im Amazon Redshift Database Developer Guide (Datenbankleitfaden zu Amazon Redshift).

  8. Wählen Sie Weiter aus.

  9. Wählen Sie Bestehende Tabelle laden aus.

  10. Bestätigen oder wählen Sie den Standort der Zieltabelle (Target table), einschließlich Cluster oder Arbeitsgruppe, Datenbank, Schema und Name der Tabelle, in die die Daten geladen werden.

  11. (Optional) Sie können Spaltennamen auswählen, um sie in das Feld Column mapping (Spaltenzuordnung) einzugeben, damit die Spalten in der Reihenfolge der Eingabedatendatei zugeordnet werden.

  12. Wählen Sie Load data (Daten laden), um das Laden der Daten zu starten.

    Wenn der Ladevorgang abgeschlossen ist, wird eine Nachricht mit der Mitteilung angezeigt, ob der Ladevorgang erfolgreich war oder nicht. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL_LOAD_ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter STL_LOAD_ERRORS im Datenbankentwicklerhandbuch zu Amazon Redshift.

    Die Vorlage für den Befehl COPY, die zum Laden von Daten verwendet wurde, wird in Ihrem Abfrageverlauf (Query history) angezeigt. In der Vorlage für den Befehl COPY sind einige der verwendeten Parameter aufgeführt, die Vorlage kann jedoch nicht direkt in einer Registerkarte des Editors ausgeführt werden. Weitere Informationen zum Abfrageverlauf finden Sie unter Abfrage- und Registerkarten-Verlauf anzeigen.

Wenn Sie Daten in eine neue Tabelle laden, erstellt Query Editor v2 zuerst die Tabelle in der Datenbank und lädt die Daten dann als separate Aktionen in demselben Workflow.

So laden Sie Daten aus einer lokalen Datei in eine neue Tabelle

Ihr Administrator für den Abfrage-Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster Account settings (Kontoeinstellungen) angeben. Die lokale Datei wird automatisch in einen von Ihrem Konto verwendeten gemeinsamen Amazon-S3-Bucket hochgeladen. Anschließend verwendet der Abfrage-Editor v2 den Befehl COPY zum Laden von Daten. Der Befehl COPY wird im Fenster „Load local file“ (Lokale Datei laden) des Abfrage-Editors v2 generiert und ausgeführt. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter COPY aus Amazon S3 im Datenbankentwicklerhandbuch zu Amazon Redshift.

  1. Vergewissern Sie sich in der Strukturansicht des Abfrageeditors v2, dass Sie mit der Zieldatenbank verbunden sind. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

  2. Wählen Sie LoadLoad data (Daten laden) aus.

  3. Wählen Sie für Data source (Datenquelle) die Option Load from local file (Aus lokaler Datei laden) aus.

  4. Wählen Sie Durchsuchen aus, um nach der Datei zu suchen, die die Daten für Datei laden enthält. Standardmäßig werden Dateien mit der Erweiterung .csv, .avro, .parquet und .orc angezeigt, Sie können jedoch auch andere Dateitypen auswählen. Die maximale -Dateigröße ist 100 MB.

  5. Wählen Sie das File format (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen File options (Dateioptionen) auswählen. Sie können auch Data is encrypted (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

    Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das Trennzeichen auswählen und angeben, ob Sie die Kopfzeilen ignorieren möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

  6. (Optional) In den Advanced settings (erweiterten Einstellungen) finden Sie verschiedene Data conversion parameters (Datenkonvertierungsparameter) und Load operations (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

    Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter Data conversion parameters (Datenkonvertierungsparameter) und Data load operations (Datenladeoperationen) im Amazon Redshift Database Developer Guide (Datenbankleitfaden zu Amazon Redshift).

  7. Wählen Sie Weiter aus.

  8. Wählen Sie Neue Tabelle laden aus.

  9. Bestätigen oder wählen Sie den Standort der Zieltabelle, einschließlich Cluster oder Arbeitsgruppe, Datenbank und Schema, in die die Daten geladen werden. Geben Sie einen Namen für die zu erstellende Tabelle ein.

  10. Wählen Sie Tabelle erstellen aus, um die Tabelle unter Verwendung der angezeigten Definition zu erstellen.

    Eine Zusammenfassung der Tabellendefinition zur Überprüfung wird angezeigt. Die Tabelle wird in der Datenbank erstellt. Um die Tabelle später zu löschen, führen Sie einen SQL-Befehl DROP TABLE aus. Weitere Informationen finden Sie unter DROP TABLE im Datenbankentwicklerhandbuch zu Amazon Redshift.

  11. Wählen Sie Load data (Daten laden), um das Laden der Daten zu starten.

    Wenn der Ladevorgang abgeschlossen ist, wird eine Nachricht mit der Mitteilung angezeigt, ob der Ladevorgang erfolgreich war oder nicht. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL_LOAD_ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter STL_LOAD_ERRORS im Datenbankentwicklerhandbuch zu Amazon Redshift.

    Die Vorlage für den Befehl COPY, die zum Laden von Daten verwendet wurde, wird in Ihrem Abfrageverlauf (Query history) angezeigt. In der Vorlage für den Befehl COPY sind einige der verwendeten Parameter aufgeführt, die Vorlage kann jedoch nicht direkt in einer Registerkarte des Editors ausgeführt werden. Weitere Informationen zum Abfrageverlauf finden Sie unter Abfrage- und Registerkarten-Verlauf anzeigen.