Beispiel für einen Workflow zur Stimmentonanalyse - Amazon Chime SDK

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Beispiel für einen Workflow zur Stimmentonanalyse

Wichtig

Bei der Stimmenanalyse werden auf der Grundlage sprachlicher und tonaler Informationen Vorhersagen über die Stimmung eines Sprechers getroffen. Sie dürfen Stimmungsanalysen nicht in gesetzlich verbotener Weise einsetzen, auch nicht im Zusammenhang mit Entscheidungen über eine Person, die rechtliche oder ähnlich erhebliche Auswirkungen auf diese Personen haben würden (z. B. in Bezug auf Beschäftigung, Wohnen, Kreditwürdigkeit oder finanzielle Angebote usw.).

Die Stimmenanalyse analysiert die Stimmen der Teilnehmer eines Anrufs und prognostiziert deren Stimmungslage, entwederpositive,negative, oderneutral.

Das folgende Diagramm zeigt einen Beispiel-Workflow für eine Stimmtonanalyse. Die nummerierten Elemente unter dem Bild beschreiben jeden Schritt des Prozesses.

Anmerkung

Das Diagramm geht davon aus, dass Sie bereits einen Amazon Chime SDK Voice Connector mit einer Konfiguration für Anrufanalysen konfiguriert haben, dieVoiceAnalyticsProcessor. Weitere Informationen finden Sie unter Aufzeichnen von Voice Connector-Anrufen.


                  Ein Diagramm, das den Datenfluss durch eine Stimmenanalyse zeigt.

Im Diagramm:

  1. Ein Anrufer wählt sich mit einer Telefonnummer ein, die einem Amazon Chime SDK Voice Connector zugewiesen ist. Oder ein Agent verwendet eine Voice Connector-Nummer, um einen ausgehenden Anruf zu tätigen.

  2. Der Voice Connector-Dienst erstellt eine Transaktions-ID und ordnet sie dem Anruf zu.

  3. Ihre Anwendung — z. B. ein Interactive Voice Response-System — oder Ihr Agent informiert den Anrufer über die Anrufaufzeichnung und die Verwendung von Spracheinbettungen für Sprachanalysen und bittet ihn um seine Zustimmung zur Teilnahme.

  4. Angenommen, Ihre Anwendung abonniert EventBridge Ereignisse, die Ihre Anwendung aufruft CreateMediaInsightsPipelineAPI mit der Media Insights-Pipeline-Konfiguration und Kinesis Video Stream-ARNs für den Voice Connector-Anruf.

    Weitere Informationen zu finden Sie unter. EventBridge, sieheWorkflows für Analysen, die auf maschinellem Lernen basieren.

  5. Sobald der Anrufer seine Zustimmung gegeben hat, kann Ihre Anwendung oder Ihr Vertreter dieStartSpeakerSearchTaskAPI über dieSprach-SDKwenn Sie einen Voice Connector und eine Transaktions-ID haben. Oder, wenn Sie statt einer Transaktions-ID eine Media Insights-Pipeline-ID haben, rufen Sie dieStartSpeakerSearchTaskAPI in derMedien-Pipelines — SDK..

    Sobald der Anrufer seine Zustimmung gegeben hat, ruft Ihre Anwendung oder Ihr Agent denStartSpeakerSearchTaskAPI. Sie müssen die Voice Connector-ID, die Transaktions-ID und die Domain-ID des Sprachprofils an die API übergeben. Es wird eine Aufgaben-ID für die Lautsprechersuche zurückgegeben, um die asynchrone Aufgabe zu identifizieren.

  6. Der Benutzer spricht während des gesamten Anrufs.

  7. Der Agent spricht während des gesamten Anrufs.

  8. Alle 5 Sekunden analysiert die Media Insights-Pipeline mithilfe eines Modells für maschinelles Lernen die letzten 30 Sekunden der Sprache und prognostiziert den Ton des Anrufers für dieses Intervall und für den gesamten Anruf ab dem Zeitpunkt, an demStartVoiceToneAnalysisTaskwurde zuerst angerufen.

  9. Die Media Insights-Pipeline sendet eine Benachrichtigung mit diesen Informationen an die konfigurierten Benachrichtigungsziele. Sie können die Benachrichtigung anhand ihres Stream-ARN und ihrer Kanal-ID identifizieren. Weitere Informationen zu finden Sie unter.Benachrichtigungen finden Sie unter., später in diesem Abschnitt.

  10. Wiederholen Sie die Schritte 9 und 10, bis der Anruf beendet ist.

  11. Am Ende des Anrufs sendet die Media Insights-Pipeline eine letzte Benachrichtigung mit der aktuellen durchschnittlichen Tonvorhersage für die letzten 30 Sekunden sowie dem durchschnittlichen Ton des gesamten Anrufs.

  12. Ihre Anwendung ruft den GetVoiceToneAnalysisTaskAPI nach Bedarf, um den neuesten Status der Aufgabe zur Stimmentonanalyse abzurufen.

    Anmerkung

    DasGetVoiceToneAnalysisTaskDie API streamt die Tondaten nicht.

Anmerkung

Die GetVoiceToneAnalysisTaskDie API gibt keine Sprachtondaten zurück.