Erste Schritte mit Amazon Managed Service für Apache Flink für Python - Managed Service für Apache Flink

Amazon Managed Service für Apache Flink war zuvor als Amazon Kinesis Data Analytics für Apache Flink bekannt.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erste Schritte mit Amazon Managed Service für Apache Flink für Python

In diesem Abschnitt werden Sie mit den grundlegenden Konzepten eines Managed Service für Apache Flink unter Verwendung von Python und der Tabellen-API vertraut gemacht. Es werden die verfügbaren Optionen für die Erstellung und das Testen von Anwendungen beschrieben. Er enthält auch Anweisungen zur Installation der Tools, die Sie benötigen, um die Tutorials in diesem Handbuch abzuschließen und Ihre erste Anwendung zu erstellen.

Erste Schritte mit Pyflink – Der Python-Interpreter für Apache | Amazon Web Services

Bevor Sie beginnen, empfehlen wir Ihnen, sich das folgende Video anzusehen:

Komponenten einer Managed Service für Apache Flink-Anwendung

Um Daten zu verarbeiten, verwendet Ihre Managed-Service-für-Apache-Flink-Anwendung eine Python-Anwendung, die mithilfe der Apache-Flink-Laufzeit Eingaben verarbeitet und Ausgaben erzeugt.

Die Anwendung Managed Service für Apache Flink besteht aus den folgenden Komponenten:

  • Laufzeit-Eigenschaften: Sie können Laufzeit-Eigenschaften verwenden, um Ihre Anwendung zu konfigurieren, ohne Ihren Anwendungscode neu kompilieren zu müssen.

  • Tabellenquelle: Die Anwendung verwendet Daten mithilfe einer Quelle. Ein Quell-Konnektor liest Daten aus einem Kinesis Data Stream, einem Amazon MSK-Thema oder ähnlichem. Weitere Informationen finden Sie unter Tabellen-API-Quellen.

  • Funktionen: Die Anwendung verarbeitet Daten mithilfe einer oder mehrerer Funktionen. Eine Funktion kann Daten transformieren, anreichern oder aggregieren.

  • Senke: Die Anwendung erzeugt Daten für externe Quellen mithilfe von Senken. Ein Sink-Connector schreibt Daten in einen Kinesis-Datenstream, einen Firehose-Firehose-Stream, ein Amazon MSK-Thema, einen Amazon S3 S3-Bucket usw. Weitere Informationen finden Sie unter Die Tabellen-API sinkt.

Nachdem Sie den Anwendungscode erstellt und verpackt haben, laden Sie das Codepaket in einen Amazon-S3-Bucket hoch. Anschließend erstellen Sie eine Managed Service für Apache Flink-Anwendung. Sie übergeben den Speicherort des Codepakets, eine Streaming-Datenquelle und in der Regel einen Streaming- oder Dateispeicherort, der die verarbeiteten Daten der Anwendung empfängt.

Voraussetzungen

Bevor Sie dieses Tutorial starten, führen Sie die ersten zwei Schritte von Erste Schritte mit Amazon Managed Service für Apache Flink (DataStreamAPI) aus.

Informationen zum Einstieg finden Sie unter Erstellen einer Anwendung.