Beispiel für einen Workflow zur Stimmentonanalyse - Amazon Chime SDK

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Beispiel für einen Workflow zur Stimmentonanalyse

Wichtig

Bei der Stimmenanalyse werden auf der Grundlage sprachlicher und tonaler Informationen Vorhersagen über die Stimmung eines Sprechers getroffen. Sie dürfen Stimmungsanalysen nicht in gesetzlich verbotener Weise einsetzen, auch nicht im Zusammenhang mit Entscheidungen über eine Person, die rechtliche oder ähnlich erhebliche Auswirkungen auf diese Personen haben würden (z. B. in Bezug auf Beschäftigung, Wohnen, Kreditwürdigkeit oder finanzielle Angebote usw.).

Die Stimmenanalyse analysiert die Stimmen der Teilnehmer eines Anrufs und prognostiziert deren Stimmungslage, entweder, oderpositive. negative neutral

Das folgende Diagramm zeigt einen Beispiel-Workflow für eine Stimmenanalyse. Die nummerierten Elemente unter dem Bild beschreiben jeden Schritt des Prozesses.

Anmerkung

Das Diagramm geht davon aus, dass Sie bereits einen Amazon Chime SDK Voice Connector mit einer Anrufanalysekonfiguration konfiguriert haben, die über eine VoiceAnalyticsProcessor verfügt. Weitere Informationen finden Sie unter Aufzeichnen von Voice Connector-Anrufen.

Ein Diagramm, das den Datenfluss durch eine Stimmenanalyse zeigt.

Im Diagramm:

  1. Ein Anrufer wählt sich mit einer Telefonnummer ein, die einem Amazon Chime SDK Voice Connector zugewiesen ist. Oder ein Agent verwendet eine Voice Connector-Nummer, um einen ausgehenden Anruf zu tätigen.

  2. Der Voice Connector-Dienst erstellt eine Transaktions-ID und ordnet sie dem Anruf zu.

  3. Ihre Anwendung — z. B. ein Interactive Voice Response-System — oder Ihr Agent informiert den Anrufer über die Anrufaufzeichnung und die Verwendung von Spracheinbettungen für Sprachanalysen und bittet ihn um seine Zustimmung zur Teilnahme.

  4. Angenommen, Ihre Anwendung abonniert EventBridge Ereignisse, ruft Ihre Anwendung die CreateMediaInsightsPipelineAPI mit der Media Insights-Pipeline-Konfiguration und den Kinesis Video Stream-ARNs für den Voice Connector-Aufruf auf.

    Weitere Informationen zur Verwendung EventBridge finden Sie unter. Workflows für Analysen, die auf maschinellem Lernen basieren

  5. Sobald der Anrufer seine Zustimmung erteilt hat, kann Ihre Anwendung oder Ihr Agent die StartSpeakerSearchTaskAPI über das Voice SDK aufrufen, sofern Sie über einen Voice Connector und eine Transaktions-ID verfügen. Oder, wenn Sie statt einer Transaktions-ID eine Media Insights-Pipeline-ID haben, rufen Sie die StartSpeakerSearchTaskAPI im Media Pipelines SDK auf.

    Sobald der Anrufer seine Zustimmung erteilt hat, ruft Ihre Anwendung oder Ihr Agent die API aufStartSpeakerSearchTask. Sie müssen die Voice Connector-ID, die Transaktions-ID und die Domain-ID des Sprachprofils an die API übergeben. Es wird eine Aufgaben-ID für die Lautsprechersuche zurückgegeben, um die asynchrone Aufgabe zu identifizieren.

  6. Der Benutzer spricht während des gesamten Anrufs.

  7. Der Agent spricht während des gesamten Anrufs.

  8. Alle 5 Sekunden analysiert die Media Insights-Pipeline mithilfe eines Modells für maschinelles Lernen die letzten 30 Sekunden der Sprache und prognostiziert den Ton des Anrufers für dieses Intervall und für den gesamten Anruf ab dem StartVoiceToneAnalysisTask Zeitpunkt des ersten Anrufs.

  9. Die Media Insights-Pipeline sendet eine Benachrichtigung mit diesen Informationen an die konfigurierten Benachrichtigungsziele. Sie können die Benachrichtigung anhand ihres Stream-ARN und ihrer Kanal-ID identifizieren. Weitere Informationen finden Sie weiter Benachrichtigungen verstehen unten in diesem Abschnitt.

  10. Wiederholen Sie die Schritte 9 und 10, bis der Anruf beendet ist.

  11. Am Ende des Anrufs sendet die Media Insights-Pipeline eine letzte Benachrichtigung mit der aktuellen durchschnittlichen Tonvorhersage für die letzten 30 Sekunden sowie dem durchschnittlichen Ton des gesamten Anrufs.

  12. Ihre Anwendung ruft die GetVoiceToneAnalysisTaskAPI nach Bedarf auf, um den aktuellen Status der Aufgabe zur Stimmton-Analyse abzurufen.

    Anmerkung

    Die GetVoiceToneAnalysisTask API streamt die Tondaten nicht.

Anmerkung

Die GetVoiceToneAnalysisTaskAPI gibt keine Sprachtondaten zurück.