Passaggio 5: produzione e utilizzo di dati - Amazon Managed Streaming per Apache Kafka

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Passaggio 5: produzione e utilizzo di dati

In questo passaggio, si producono e si utilizzano dati utilizzando l'argomento creato nel passaggio precedente.

Per produrre e consumare messaggi
  1. Esegui il comando seguente per creare un produttore della console.

    <path-to-your-kafka-installation>/bin/kafka-console-producer.sh --broker-list $BS --producer.config client.properties --topic msk-serverless-tutorial
  2. Immettere qualsiasi messaggio desiderato e premere Enter (Invio). Ripetere questa fase due o tre volte. Ogni volta che immetti una riga e premi Invio, tale riga viene inviata al cluster Apache Kafka come un messaggio separato.

  3. Mantenere aperta la connessione al computer client, quindi aprire una seconda connessione separata al computer in una nuova finestra.

  4. Utilizza la tua seconda connessione al computer client per creare un utente della console eseguendo il comando seguente. Sostituisci my-endpoint con la stringa del server di bootstrap che hai salvato dopo aver creato il cluster.

    <path-to-your-kafka-installation>/bin/kafka-console-consumer.sh --bootstrap-server my-endpoint --consumer.config client.properties --topic msk-serverless-tutorial --from-beginning

    Si iniziano a vedere i messaggi immessi in precedenza quando è stato utilizzato il comando produttore della console.

  5. Immettere altri messaggi nella finestra del produttore e guardali apparire nella finestra del consumatore.

Fase successiva

Passaggio 6: eliminazione delle risorse