Code d'application - Manuel du développeur des applications Amazon Kinesis Data Analytics pour SQL

Pour les nouveaux projets, nous vous recommandons d’utiliser le nouveau service géré pour Apache Flink Studio plutôt que les applications Kinesis Data Analytics pour SQL. Le service géré pour Apache Flink Studio allie facilité d’utilisation et capacités analytiques avancées, ce qui vous permet de créer des applications sophistiquées de traitement des flux en quelques minutes.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Code d'application

Le code d'application est un ensemble d'instructions SQL qui traite une entrée et produit une sortie. Ces instructions SQL fonctionnent sur des flux et des tables de référence intégrés à l'application. Pour de plus amples informations, veuillez consulter Applications Amazon Kinesis Data Analytics pour SQL : fonctionnement.

Pour plus d’informations sur les éléments du langage SQL pris en charge par Kinesis Data Analytics, consultez la Référence SQL Amazon Kinesis Data Analytics.

Dans les bases de données relationnelles, vous gérez des tables à l'aide d'instructions INSERT pour ajouter des enregistrements et de l'instruction SELECT pour interroger les données. Dans Amazon Kinesis Data Analytics, vous travaillez avec des flux. Vous pouvez écrire une instruction SQL pour interroger ces flux. Les résultats de l'interrogation d'un flux intégré à l'application sont toujours envoyés à un autre flux intégré à l'application. Lorsque vous effectuez des analyses complexes, vous pouvez créer plusieurs flux intégrés à l'application pour conserver les résultats d'analyses intermédiaires. Enfin, vous configurez la sortie d'application pour conserver les résultats de l'analyse finale (à partir d'un ou de plusieurs flux intégrés à l'application) dans des destinations externes. Pour résumer, voici un modèle typique pour écrire du code d'application :

  • L'instruction SELECT est toujours utilisée dans le contexte d'une instruction INSERT. En d'autres termes, lorsque vous sélectionnez des lignes, vous insérez des résultats dans un autre flux intégré à l'application.

  • L'instruction INSERT est toujours utilisée dans le contexte d'une pompe. En d'autres termes, vous utilisez des pompes pour écrire dans un flux intégré à l'application.

L'exemple de code d'application suivant lit des enregistrements d'un flux intégré à l'application (SOURCE_SQL_STREAM_001) et écrit dans un autre flux intégré à l'application (DESTINATION_SQL_STREAM). Vous pouvez insérer des enregistrements dans des flux intégrés à l'application à l'aide de pompes, comme illustré ci-après :

CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" (ticker_symbol VARCHAR(4), change DOUBLE, price DOUBLE); -- Create a pump and insert into output stream. CREATE OR REPLACE PUMP "STREAM_PUMP" AS INSERT INTO "DESTINATION_SQL_STREAM" SELECT STREAM ticker_symbol, change,price FROM "SOURCE_SQL_STREAM_001";
Note

Les identificateurs que vous spécifiez pour les noms de flux et de colonne suivent les conventions SQL standard. Par exemple, si vous placez un identificateur entre guillemets, celui-ci sera sensible à la casse. Sinon, l'identificateur apparaît en majuscules par défaut. Pour plus d’informations sur les identifiants, consultez la section Identifiants dans le manuel Référence SQL du service géré Amazon pour Apache Flink SQL.

Votre code d'application peut être constitué de nombreuses instructions SQL. Par exemple :

  • Vous pouvez écrire des requêtes SQL de manière séquentielle de sorte que le résultat d'une instruction SQL soit intégré dans l'instruction SQL suivante.

  • Vous pouvez également écrire des requêtes SQL qui s'exécutent indépendamment les unes des autres. Par exemple, vous pouvez écrire deux instructions SQL qui interrogent le même flux intégré à l'application, mais qui envoient une sortie dans des flux intégrés à l'application différents. Vous pouvez ensuite interroger indépendamment les flux intégrés à l'application nouvellement créés.

Vous pouvez créer des flux intégrés à l'application pour enregistrer des résultats intermédiaires. Vous insérez les données dans des flux intégrés à l'application à l'aide de pompes. Pour de plus amples informations, veuillez consulter Flux et pompes intégrés à l'application.

Si vous ajoutez une table de référence intégrée à l'application, vous pouvez écrire du code SQL pour joindre des données de flux et de tables de référence intégrés à l'application. Pour de plus amples informations, veuillez consulter Exemple : ajout de données de référence à une application Kinesis Data Analytics.

Selon la configuration de sortie de l’application, Amazon Kinesis Data Analytics écrit les données de flux intégrés à l’application spécifiques dans la destination externe. Assurez-vous que votre code d'application écrit dans les flux intégrés à l'application spécifiés dans la configuration de sortie.

Pour plus d'informations, consultez les rubriques suivantes :