AWSData Pipeline - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

AWSData Pipeline

AWSData Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Data Pipeline-Daten Mithilfe von Data Pipeline können Sie eine Pipeline erstellen, um Tabellendaten aus dem Quellkonto zu exportieren. Die exportierten Daten werden in einem Amazon Simple Storage Service (Amazon S3) -Bucket im Zielkonto gespeichert. Auf den S3-Bucket im Zielkonto muss vom Quellkonto aus zugegriffen werden können. Um diesen kontoübergreifenden Zugriff zu ermöglichen, aktualisieren Sie die Zugriffssteuerungsliste (Access Control List, ACL) im S3-Ziel-Bucket

Erstellen Sie eine weitere Pipeline im Zielkonto (Account-B), um Daten aus dem S3-Bucket in die Tabelle im Zielkonto zu importieren.

Dies war die traditionelle Methode, Amazon DynamoDB-Tabellen auf Amazon S3 zu sichern und aus Amazon S3 wiederherzustellen, bis die Unterstützung für das native Lesen aus DynamoDB-TabellenAWS Glue eingeführt wurde.

Vorteile

  • Es ist eine serverlose Lösung.

  • Es ist kein neuer Code erforderlich.

  • AWSData Pipeline verwendet Amazon EMR-Cluster hinter den Kulissen, sodass dieser Ansatz effizient ist und große Datensätze verarbeiten kann.

Nachteile

  • ZusätzlicheAWS Dienste (Data Pipeline und Amazon S3) sind erforderlich.

  • Der Prozess verbraucht bereitgestellten Durchsatz für die Quelltabelle und die beteiligten Zieltabellen, was sich auf Leistung und Verfügbarkeit auswirken kann.

  • Dieser Ansatz verursacht zusätzliche Kosten im Vergleich zu den Kosten für DynamoDB-Lese- und Schreibkapazitätseinheiten (WCUs) und Schreibkapazitätseinheiten (WCUs).