StartCallAnalyticsStreamTranscription - Transcribe

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

StartCallAnalyticsStreamTranscription

Lance un HTTP/2 ou un WebSocket flux bidirectionnel où l'audio est diffusé vers Amazon Transcribe et les résultats de la transcription sont diffusés sur votre application. Utilisez cette opération pour les transcriptions d'Call Analytics.

Les paramètres suivants sont obligatoires :

  • language-code

  • media-encoding

  • sample-rate

Pour plus d'informations sur le streaming avec Amazon Transcribe, consultez la section Transcription du streaming audio.

Syntaxe de la demande

POST /call-analytics-stream-transcription HTTP/2 x-amzn-transcribe-language-code: LanguageCode x-amzn-transcribe-sample-rate: MediaSampleRateHertz x-amzn-transcribe-media-encoding: MediaEncoding x-amzn-transcribe-vocabulary-name: VocabularyName x-amzn-transcribe-session-id: SessionId x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod x-amzn-transcribe-language-model-name: LanguageModelName x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization x-amzn-transcribe-partial-results-stability: PartialResultsStability x-amzn-transcribe-content-identification-type: ContentIdentificationType x-amzn-transcribe-content-redaction-type: ContentRedactionType x-amzn-transcribe-pii-entity-types: PiiEntityTypes Content-type: application/json { "AudioStream": { "AudioEvent": { "AudioChunk": blob }, "ConfigurationEvent": { "ChannelDefinitions": [ { "ChannelId": number, "ParticipantRole": "string" } ], "PostCallAnalyticsSettings": { "ContentRedactionOutput": "string", "DataAccessRoleArn": "string", "OutputEncryptionKMSKeyId": "string", "OutputLocation": "string" } } } }

Paramètres de demande URI

La demande utilise les paramètres URI suivants.

ContentIdentificationType

Étiquette toutes les données d'identification personnelle (PII) identifiées dans votre relevé de notes.

L'identification du contenu est effectuée au niveau du segment ; les informations d'identification personnelles spécifiées dansPiiEntityTypes sont signalées lors de la transcription complète d'un segment audio.

Vous ne pouvez pas définirContentIdentificationType etContentRedactionType dans la même demande. Si vous définissez les deux, votre demande renvoie unBadRequestException.

Pour plus d'informations, voir Suppression ou identification d'informations personnelles identifiables.

Valeurs valides : PII

ContentRedactionType

Supprime toutes les données d'identification personnelle (PII) identifiées dans votre relevé de notes.

La rédaction du contenu est effectuée au niveau du segment ; les informations personnelles spécifiées dansPiiEntityTypes sont supprimées lors de la transcription complète d'un segment audio.

Vous ne pouvez pas définirContentRedactionType etContentIdentificationType dans la même demande. Si vous définissez les deux, votre demande renvoie unBadRequestException.

Pour plus d'informations, voir Suppression ou identification d'informations personnelles identifiables.

Valeurs valides : PII

EnablePartialResultsStabilization

Permet une stabilisation partielle des résultats de votre transcription. La stabilisation partielle des résultats peut réduire la latence de votre sortie, mais peut avoir un impact sur la précision. Pour plus d'informations, voir Stabilisation des résultats partiels.

LanguageCode

Spécifiez le code de langue qui représente la langue parlée dans votre fichier audio.

Si vous n'êtes pas sûr de la langue parlée dans votre fichier audio, pensezIdentifyLanguage à l'utiliser pour activer l'identification automatique de la langue.

Pour obtenir la liste des langues prises en charge par l'analyse des appels en temps réel, consultez le tableau des langues prises en charge.

Valeurs valides : en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR

Obligatoire : oui

LanguageModelName

Spécifiez le nom du modèle de langue personnalisé que vous voulez utiliser pour traiter votre transcription. Notez que les noms des modèles de langage sont sensibles à la casse.

La langue du modèle linguistique spécifié doit correspondre au code de langue que vous spécifiez dans votre demande de transcription. Si les langues ne correspondent pas, le modèle de langue personnalisé n'est pas appliqué. Aucune erreur ou avertissement n'est associé à une incompatibilité linguistique.

Pour de plus amples informations, veuillez consulter Modèles de langue personnalisés.

Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.

Modèle : ^[0-9a-zA-Z._-]+

MediaEncoding

Spécifiez l'encodage de votre entrée audio. Formats pris en charge :

  • FLAC

  • Audio codé OPUS dans un conteneur Ogg

  • PCM (uniquement formats audio Little-Endian 16 bits signés, qui n'incluent pas le WAV)

Pour de plus amples informations, veuillez consulter Formats de média.

Valeurs valides : pcm | ogg-opus | flac

Obligatoire : oui

MediaSampleRateHertz

Fréquence d'échantillonnage du signal audio d'entrée (en hertz). Le son de faible qualité, tel que le son du téléphone, se situe généralement autour de 8 000 Hz. Le son de haute qualité varie généralement entre 16 000 Hz et 48 000 Hz. Notez que la fréquence d'échantillonnage que vous spécifiez doit correspondre à celle de votre audio.

Plage valide : Valeur minimale de 8 000. Valeur maximum de 48 000.

Obligatoire : oui

PartialResultsStability

Spécifiez le niveau de stabilité à utiliser lorsque vous activez la stabilisation partielle des résultats (EnablePartialResultsStabilization).

Une faible stabilité fournit la plus grande précision. La haute stabilité permet de transcrire plus rapidement, mais avec une précision légèrement inférieure.

Pour plus d'informations, voir Stabilisation des résultats partiels.

Valeurs valides : high | medium | low

PiiEntityTypes

Spécifiez les types d'informations personnelles identifiables (PII) que vous souhaitez supprimer dans votre relevé de notes. Vous pouvez inclure autant de types que vous le souhaitez, ou vous pouvez sélectionnerALL.

Pour inclurePiiEntityTypes dans votre demande Call Analytics, vous devez également inclure l'unContentIdentificationType ou l'autreContentRedactionType.

Les valeurs doivent être séparées par des virgules et peuvent inclure :ADDRESSBANK_ACCOUNT_NUMBERBANK_ROUTINGCREDIT_DEBIT_CVV,CREDIT_DEBIT_EXPIRY,CREDIT_DEBIT_NUMBER,EMAIL,,NAME,PHONE,PIN,SSN, ouALL.

Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 300.

Modèle : ^[A-Z_, ]+

SessionId

Spécifiez un nom pour votre session de transcription de Call Analytics. Si vous n'incluez pas ce paramètre dans votre demande, Amazon Transcribe génère un identifiant et le renvoie dans la réponse.

Contraintes de longueur : longueur fixe de 36.

Modèle : [a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}

VocabularyFilterMethod

Spécifiez comment vous souhaitez que votre filtre de vocabulaire soit appliqué à votre relevé de notes.

Pour remplacer les mots par***, choisissezmask.

Pour supprimer des mots, choisissezremove.

Pour signaler des mots sans les modifier, choisisseztag.

Valeurs valides : remove | mask | tag

VocabularyFilterName

Spécifiez le nom du filtre de vocabulaire personnalisé que vous souhaitez utiliser lors du traitement de votre transcription. Notez que les noms des filtres de vocabulaire sont sensibles à la casse.

Si la langue du filtre de vocabulaire personnalisé spécifié ne correspond pas à la langue identifiée dans votre média, le filtre de vocabulaire n'est pas appliqué à votre transcription.

Pour plus d'informations, voir Utilisation du filtrage du vocabulaire avec des mots indésirables.

Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.

Modèle : ^[0-9a-zA-Z._-]+

VocabularyName

Spécifiez le nom du vocabulaire personnalisé que vous souhaitez utiliser lors du traitement de votre transcription. Notez que les noms de vocabulaire sont sensibles à la casse.

Si la langue du vocabulaire personnalisé spécifié ne correspond pas à la langue identifiée dans votre média, le vocabulaire personnalisé n'est pas appliqué à votre transcription.

Pour plus d'informations, veuillez consulter Vocabulaires personnalisés.

Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.

Modèle : ^[0-9a-zA-Z._-]+

Corps de la demande

Cette demande accepte les données suivantes au format JSON.

AudioStream

Un flux codé de blobs audio. Les flux audio sont codés sous forme de HTTP/2 ou de trames de WebSocket données.

Pour de plus amples informations, veuillez consulter Transcription de l'audio diffusé en continu.

Type : objet CallAnalyticsAudioStream

Obligatoire : oui

Syntaxe de la réponse

HTTP/2 200 x-amzn-request-id: RequestId x-amzn-transcribe-language-code: LanguageCode x-amzn-transcribe-sample-rate: MediaSampleRateHertz x-amzn-transcribe-media-encoding: MediaEncoding x-amzn-transcribe-vocabulary-name: VocabularyName x-amzn-transcribe-session-id: SessionId x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod x-amzn-transcribe-language-model-name: LanguageModelName x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization x-amzn-transcribe-partial-results-stability: PartialResultsStability x-amzn-transcribe-content-identification-type: ContentIdentificationType x-amzn-transcribe-content-redaction-type: ContentRedactionType x-amzn-transcribe-pii-entity-types: PiiEntityTypes Content-type: application/json { "CallAnalyticsTranscriptResultStream": { "BadRequestException": { }, "CategoryEvent": { "MatchedCategories": [ "string" ], "MatchedDetails": { "string" : { "TimestampRanges": [ { "BeginOffsetMillis": number, "EndOffsetMillis": number } ] } } }, "ConflictException": { }, "InternalFailureException": { }, "LimitExceededException": { }, "ServiceUnavailableException": { }, "UtteranceEvent": { "BeginOffsetMillis": number, "EndOffsetMillis": number, "Entities": [ { "BeginOffsetMillis": number, "Category": "string", "Confidence": number, "Content": "string", "EndOffsetMillis": number, "Type": "string" } ], "IsPartial": boolean, "IssuesDetected": [ { "CharacterOffsets": { "Begin": number, "End": number } } ], "Items": [ { "BeginOffsetMillis": number, "Confidence": number, "Content": "string", "EndOffsetMillis": number, "Stable": boolean, "Type": "string", "VocabularyFilterMatch": boolean } ], "ParticipantRole": "string", "Sentiment": "string", "Transcript": "string", "UtteranceId": "string" } } }

Eléments de réponse

Si l'action aboutit, le service renvoie une réponse HTTP 200.

La réponse renvoie les en-têtes HTTP suivants.

ContentIdentificationType

Indique si l'identification du contenu a été activée pour la transcription de votre Call Analytics.

Valeurs valides : PII

ContentRedactionType

Indique si la rédaction du contenu a été activée pour la transcription de votre Call Analytics.

Valeurs valides : PII

EnablePartialResultsStabilization

Indique si la stabilisation partielle des résultats a été activée pour votre transcription de Call Analytics.

LanguageCode

Fournit le code de langue que vous avez spécifié dans votre demande Call Analytics.

Valeurs valides : en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR

LanguageModelName

Fournit le nom du modèle de langue personnalisé que vous avez spécifié dans votre demande Call Analytics.

Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.

Modèle : ^[0-9a-zA-Z._-]+

MediaEncoding

Fournit le codage multimédia que vous avez spécifié dans votre demande Call Analytics.

Valeurs valides : pcm | ogg-opus | flac

MediaSampleRateHertz

Fournit la fréquence d'échantillonnage que vous avez spécifiée dans votre demande Call Analytics.

Plage valide : Valeur minimale de 8 000. Valeur maximum de 48 000.

PartialResultsStability

Indique le niveau de stabilisation utilisé pour votre transcription.

Valeurs valides : high | medium | low

PiiEntityTypes

Répertorie les types d'entités PII que vous avez spécifiés dans votre demande Call Analytics.

Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 300.

Modèle : ^[A-Z_, ]+

RequestId

Fournit l'identifiant de votre demande Call Analytics en temps réel.

SessionId

Fournit l'identifiant de votre session de transcription de Call Analytics.

Contraintes de longueur : longueur fixe de 36.

Modèle : [a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}

VocabularyFilterMethod

Fournit la méthode de filtrage du vocabulaire utilisée dans la transcription de votre Call Analytics.

Valeurs valides : remove | mask | tag

VocabularyFilterName

Fournit le nom du filtre de vocabulaire personnalisé que vous avez spécifié dans votre demande Call Analytics.

Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.

Modèle : ^[0-9a-zA-Z._-]+

VocabularyName

Fournit le nom du vocabulaire personnalisé que vous avez spécifié dans votre demande Call Analytics.

Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.

Modèle : ^[0-9a-zA-Z._-]+

Les données suivantes sont renvoyées au format JSON par le service.

CallAnalyticsTranscriptResultStream

Fournit des informations détaillées sur votre session Call Analytics en temps réel.

Type : objet CallAnalyticsTranscriptResultStream

Erreurs

Pour plus d'informations sur les erreurs communes à toutes les actions, reportez-vous à la sectionErreurs courantes.

BadRequestException

Un ou plusieurs arguments en faveur de l'StartCallAnalyticsStreamTranscriptionopérationStartStreamTranscriptionStartMedicalStreamTranscription, ou n'étaient pas valides. Par exemple,MediaEncoding ou vous avezLanguageCode utilisé des valeurs non prises en charge. Vérifiez les paramètres spécifiés et réessayez votre demande.

Code d'état HTTP : 400

ConflictException

Un nouveau flux a commencé avec le même identifiant de session. Le flux actuel a été interrompu.

Code d'état HTTP : 409

InternalFailureException

Un problème est survenu lors du traitement de l'audio. Amazon Transcribe a mis fin au traitement.

Code d'état HTTP : 500

LimitExceededException

Votre client a dépassé l'une des limites d'Amazon Transcribe. Il s'agit généralement de la limite de longueur audio. Divisez votre flux audio en petits morceaux et réessayez votre demande.

Code d'état HTTP : 429

ServiceUnavailableException

Le service est actuellement indisponible. Réessayez votre demande plus tard.

HTTP Status Code: 503

Voir aussi

Pour plus d'informations sur l'utilisation de cette API dans l'un des kits SDK AWS spécifiques au langage, consultez les ressources suivantes :