Exemple : Création d'alertes simples - Manuel du développeur des applications Amazon Kinesis Data Analytics pour SQL

Pour les nouveaux projets, nous vous recommandons d’utiliser le nouveau service géré pour Apache Flink Studio plutôt que les applications Kinesis Data Analytics pour SQL. Le service géré pour Apache Flink Studio allie facilité d’utilisation et capacités analytiques avancées, ce qui vous permet de créer des applications sophistiquées de traitement des flux en quelques minutes.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Exemple : Création d'alertes simples

Dans l’application Kinesis Data Analytics, la requête est exécutée en continu sur le flux intégré à l’application qui est créé sur le flux de démonstration. Pour de plus amples informations, veuillez consulter Requêtes continues.

Si des lignes montrent qu'un changement de cours d'une action est supérieur à 1 %, ces lignes sont insérées dans un autre flux intégré à l'application. Dans l'exercice, vous pouvez configurer la sortie de l'application pour conserver les résultats dans une destination externe. Vous pouvez alors étudier les résultats plus en détail. Par exemple, vous pouvez utiliser une fonction AWS Lambda pour traiter les enregistrements et vous envoyer des alertes.

Pour créer une application d'alertes simples
  1. Créez une application d’analyse comme décrit dans l’exercice de mise en route de Kinesis Data Analytics.

  2. Dans l’éditeur SQL dans Kinesis Data Analytics, remplacez le code d’application par les éléments suivants :

    CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" (ticker_symbol VARCHAR(4), sector VARCHAR(12), change DOUBLE, price DOUBLE); CREATE OR REPLACE PUMP "STREAM_PUMP" AS INSERT INTO "DESTINATION_SQL_STREAM" SELECT STREAM ticker_symbol, sector, change, price FROM "SOURCE_SQL_STREAM_001" WHERE (ABS(Change / (Price - Change)) * 100) > 1;

    L' instruction SELECT du code d'application filtre les lignes de SOURCE_SQL_STREAM_001 pour obtenir les changements de cours d'action supérieurs à 1 %. Elle insère ensuite ces lignes dans un autre flux intégré à l'application, DESTINATION_SQL_STREAM, à l'aide d'une pompe. Pour plus d'informations sur le modèle de codage expliquant l'utilisation de pompes pour insérer des lignes dans des flux intégrés à l'application, consultez Code d'application.

  3. Choisissez Save and run SQL (Enregistrer et exécuter SQL).

  4. Ajoutez une destination. Pour ce faire, vous pouvez choisir l'onglet Destination dans l'éditeur SQL ou Add a destination (Ajouter une destination) dans la page de détails de l'application.

    1. Dans l'éditeur SQL, choisissez l'onglet Destination, puis Connect to a destination (Se connecter à une destination).

      Sur la page Connect to destination (Se connecter à une destination), choisissez Create New (Créer Nouveau).

    2. Choisissez Go to Kinesis Streams.

    3. Dans la console Amazon Kinesis Data Streams, créez un nouveau flux Kinesis (par exemple, gs-destination) avec une partition. Attendez que l'état du flux soit ACTIVE.

    4. Revenez à la console Kinesis Data Analytics. Sur la page Connect to destination (Se connecter à une destination), choisissez le flux que vous avez créé.

      Si le flux n'apparaît pas, actualisez la page.

    5. Choisissez Save and continue (Enregistrer et continuer).

    Maintenant, vous disposez d’une destination externe, un flux de données Kinesis, où Kinesis Data Analytics conserve la sortie de votre application dans le flux intégré à l’application DESTINATION_SQL_STREAM.

  5. Configurez AWS Lambda pour surveiller le flux Kinesis que vous avez créé et appelez une fonction Lambda.

    Pour obtenir des instructions, consultez Prétraitement des données à l’aide d’une fonction Lambda.