Comece a usar o Amazon Managed Service para Apache Flink (tabela) API - Managed Service for Apache Flink

Anteriormente, o Amazon Managed Service for Apache Flink era conhecido como Amazon Kinesis Data Analytics for Apache Flink.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Comece a usar o Amazon Managed Service para Apache Flink (tabela) API

Esta seção apresenta os conceitos fundamentais do Managed Service for Apache Flink e da implementação de um aplicativo em Java usando a Tabela e. API SQL Ele demonstra como alternar entre diferentes APIs no mesmo aplicativo e descreve as opções disponíveis para criar e testar seus aplicativos. Ela também fornece instruções para instalar as ferramentas necessárias para concluir os tutoriais deste guia e criar seu primeiro aplicativo.

Analise os componentes do aplicativo Managed Service for Apache Flink

nota

O Managed Service para Apache Flink é compatível com todo o Apache Flink APIs e, potencialmente, com todos os idiomas. JVM Dependendo da API sua escolha, a estrutura do aplicativo e a implementação são um pouco diferentes. Este tutorial aborda a implementação de aplicativos usando a Tabela API eSQL, e a integração com a DataStream API, implementada em Java.

Para processar dados, seu aplicativo Managed Service for Apache Flink usa um aplicativo Java que processa a entrada e produz a saída usando o tempo de execução do Apache Flink.

Um aplicativo Apache Flink típico tem os seguintes componentes:

  • Propriedades de tempo de execução: você pode usar propriedades de tempo de execução para passar parâmetros de configuração para seu aplicativo sem modificar e republicar o código.

  • Fontes: o aplicativo consome dados de uma ou mais fontes. Uma fonte usa um conector para ler dados de um sistema externo, como um stream de dados do Kinesis ou um tópico da AmazonMSK. Para desenvolvimento ou teste, você também pode fazer com que as fontes gerem dados de teste aleatoriamente. Para obter mais informações, consulte Adicione fontes de dados de streaming ao Managed Service for Apache Flink. Com SQL ou TabelaAPI, as fontes são definidas como tabelas de origem.

  • Transformações: o aplicativo processa dados por meio de uma ou mais transformações que podem filtrar, enriquecer ou agregar dados. Ao usar SQL ou TabelaAPI, as transformações são definidas como consultas em tabelas ou visualizações.

  • Coletores: o aplicativo envia dados para sistemas externos por meio de coletores. Um coletor usa um conector para enviar dados para um sistema externo, como um stream de dados do Kinesis, um MSK tópico da Amazon, um bucket do Amazon S3 ou um banco de dados relacional. Você também pode usar um conector especial para imprimir a saída somente para fins de desenvolvimento. Ao usar SQL ou TabelaAPI, os coletores são definidos como tabelas de coletores nas quais você inserirá os resultados. Para obter mais informações, consulte Grave dados usando coletores no Managed Service for Apache Flink.

Seu aplicativo requer algumas dependências externas, como conectores Flink que seu aplicativo usa ou, potencialmente, uma biblioteca Java. Para ser executado no Amazon Managed Service para Apache Flink, você deve empacotar o aplicativo junto com as dependências em um fat- JAR e enviá-lo para um bucket do Amazon S3. Em seguida, crie um aplicativo do Managed Service for Apache Flink. Você passa a localização do pacote de código, junto com outros parâmetros de configuração de tempo de execução. Este tutorial demonstra como usar o Apache Maven para empacotar o aplicativo e como executá-lo localmente no local IDE de sua escolha.

Preencha os pré-requisitos necessários

Antes de iniciar este tutorial, conclua duas primeiras etapas de Comece a usar o Amazon Managed Service para Apache Flink () DataStream API:

Para começar, consulte o Cria uma aplicação.

Próxima etapa

Limpe AWS os recursos