Ejemplo de flujo de trabajo de análisis de tonos de voz - Amazon Chime SDK

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Ejemplo de flujo de trabajo de análisis de tonos de voz

importante

El análisis del tono de voz implica hacer predicciones sobre el sentimiento del hablante en función de la información lingüística y tonal. No debe utilizar el análisis de opiniones de ninguna manera que esté prohibida por la ley, ni siquiera en relación con la toma de decisiones sobre una persona que puedan tener repercusiones legales o similares significativas en esa persona (por ejemplo, en relación con el empleo, la vivienda, la solvencia crediticia o las ofertas financieras, etc.).

El análisis del tono de voz analiza las voces de las personas que participan en una llamada y predice sus sentimientos, ya sea positive, negative o neutral.

En el siguiente diagrama se muestra un ejemplo de flujo de trabajo para un análisis de tonos de voz. Los elementos numerados que aparecen debajo de la imagen describen cada paso del proceso

nota

En el diagrama se supone que ya ha configurado un conector de SDK voz de Amazon Chime con una configuración de análisis de llamadas que tiene un. VoiceAnalyticsProcessor Para obtener más información, consulte Grabar llamadas de Voice Connector.

Un diagrama que muestra el flujo de datos a través de un análisis del tono de voz.

En el diagrama:

  1. La persona que llama llama con un número de teléfono asignado a un conector de voz de Amazon SDK Chime. O bien, un agente usa un número de Voice Connector para realizar una llamada saliente.

  2. El servicio Voice Connector crea un identificador de transacción y lo asocia a la llamada.

  3. Su aplicación (por ejemplo, un sistema de respuesta de voz interactiva) o su agente notifican a la persona que llama sobre la grabación de llamadas y el uso de incrustaciones de voz para el análisis de la voz y solicita su consentimiento para participar.

  4. Si la aplicación se suscribe a los EventBridge eventos, la aplicación llama al CreateMediaInsightsPipelineAPIcon la configuración de canalización de Media Insights y Kinesis Video Stream ARNs para la llamada de Voice Connector.

    Para obtener más información sobre el uso EventBridge, consulte. Descripción de los flujos de trabajo para el análisis basado en el aprendizaje automático

  5. Una vez que la persona que llama dé su consentimiento, su solicitud o agente pueden llamar al StartSpeakerSearchTaskAPIa través de la voz SDK si tienes un conector de voz y un identificador de transacción. O bien, si tienes un identificador de canalización de Media Insights en lugar de un identificador de transacción, llamas al StartSpeakerSearchTaskAPIen los canales de Media. SDK

    Una vez que la persona que llama dé su consentimiento, su solicitud o agente llamará al. StartSpeakerSearchTask API Debe pasar el ID del conector de voz, el ID de transacción y el ID de dominio del perfil de voz alAPI. Se devuelve un identificador de tarea de búsqueda de hablantes para identificar la tarea asincrónica.

  6. El usuario habla durante toda la llamada.

  7. El agente habla durante toda la llamada.

  8. Cada 5 segundos, Media Insights Pipeline utiliza un modelo de machine learning para analizar los últimos 30 segundos del discurso y predecir el tono de la persona que llama durante ese intervalo y para toda la llamada desde el momento en que se llamó a StartVoiceToneAnalysisTask por primera vez.

  9. El canal de información multimedia envía una notificación con esa información a los destinatarios de notificaciones configurados. Puede identificar la notificación en función de su transmisión ARN y su ID de canal. Para obtener más información, consulte Descripción de notificaciones más adelante en esta sección.

  10. Repita los pasos 9 y 10 hasta que finalice la llamada.

  11. Al final de la llamada, Media Insights Pipeline envía una última notificación con la predicción del tono promedio actual para los últimos 30 segundos, además del tono promedio de toda la llamada.

  12. Tu aplicación llama al GetVoiceToneAnalysisTaskAPIsegún sea necesario para obtener el estado más reciente de la tarea de análisis del tono de voz.

    nota

    GetVoiceToneAnalysisTaskAPINo transmite los datos de tono.

nota

Con la GetVoiceToneAnalysisTaskAPIno devuelve los datos del tono de voz.