StartCallAnalyticsStreamTranscription - Transcribe

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

StartCallAnalyticsStreamTranscription

Startet einen bidirektionalen HTTP/2- oder WebSocket -Stream, bei dem Audio an Amazon Transcribe und die Transkriptionsergebnisse an Ihre Anwendung gestreamt werden. Verwenden Sie diesen Vorgang für Call Analytics-Transkriptionen.

Die folgenden Parameter sind erforderlich:

  • language-code

  • media-encoding

  • sample-rate

Weitere Informationen zum Streamen mit Amazon Transcribe finden Sie unter Transkribieren von Streaming-Audio.

Anforderungssyntax

POST /call-analytics-stream-transcription HTTP/2 x-amzn-transcribe-language-code: LanguageCode x-amzn-transcribe-sample-rate: MediaSampleRateHertz x-amzn-transcribe-media-encoding: MediaEncoding x-amzn-transcribe-vocabulary-name: VocabularyName x-amzn-transcribe-session-id: SessionId x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod x-amzn-transcribe-language-model-name: LanguageModelName x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization x-amzn-transcribe-partial-results-stability: PartialResultsStability x-amzn-transcribe-content-identification-type: ContentIdentificationType x-amzn-transcribe-content-redaction-type: ContentRedactionType x-amzn-transcribe-pii-entity-types: PiiEntityTypes Content-type: application/json { "AudioStream": { "AudioEvent": { "AudioChunk": blob }, "ConfigurationEvent": { "ChannelDefinitions": [ { "ChannelId": number, "ParticipantRole": "string" } ], "PostCallAnalyticsSettings": { "ContentRedactionOutput": "string", "DataAccessRoleArn": "string", "OutputEncryptionKMSKeyId": "string", "OutputLocation": "string" } } } }

URI-Anfrageparameter

Die Anforderung verwendet die folgenden URI-Parameter.

ContentIdentificationType

Kennungswert alle persönlich identifizierbaren Informationen (PII), die in Ihrem Transkript identifiziert wurden.

Die Inhaltsidentifikation erfolgt auf Segmentebene. Die inPiiEntityTypes angegebenen personenbezogenen Daten werden nach vollständiger Transkription eines Audiosegments gekennzeichnet.

Sie können nichtContentIdentificationType undContentRedactionType in derselben Anfrage festlegen. Wenn Sie beide einstellen, gibt Ihre Anfrage a zurückBadRequestException.

Weitere Informationen finden Sie unter Personenbezogene Daten redigieren oder identifizieren.

Zulässige Werte: PII

ContentRedactionType

Redigiert alle persönlich identifizierbaren Informationen (PII), die in Ihrem Transkript identifiziert wurden.

Die Inhaltsredigierung erfolgt auf Segmentebene. Die inPiiEntityTypes angegebenen PII werden nach vollständiger Transkription eines Audiosegments redigiert.

Sie können nichtContentRedactionType undContentIdentificationType in derselben Anfrage festlegen. Wenn Sie beide einstellen, gibt Ihre Anfrage a zurückBadRequestException.

Weitere Informationen finden Sie unter Personenbezogene Daten redigieren oder identifizieren.

Zulässige Werte: PII

EnablePartialResultsStabilization

Ermöglicht eine teilweise Stabilisierung der Ergebnisse für Ihre Transkription. Eine teilweise Stabilisierung der Ergebnisse kann die Latenz bei der Ausgabe verringern, kann jedoch die Genauigkeit beeinträchtigen. Weitere Informationen finden Sie unter Partielle Ergebnisstabilisierung.

LanguageCode

Geben Sie den Sprachcode an, der die in Ihrem Audio gesprochene Sprache darstellt.

Wenn Sie sich nicht sicher sind, welche Sprache in Ihrem Audio gesprochen wird, sollten Sie erwägen, diese OptionIdentifyLanguage zu verwenden, um die automatische Sprachenidentifikation zu aktivieren.

Eine Liste der Sprachen, die von Call Analytics in Echtzeit unterstützt werden, finden Sie in der Tabelle Unterstützte Sprachen.

Zulässige Werte: en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR

Erforderlich: Ja

LanguageModelName

Geben Sie den Namen des benutzerdefinierten Sprachmodells an, das Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Namen von Sprachmodellen zwischen Groß- und Kleinschreibung unterschieden wird.

Die Sprache des angegebenen Sprachmodells muss mit dem Sprachcode übereinstimmen, den Sie in Ihrer Transkriptionsanfrage angegeben haben. Wenn die Sprachen nicht übereinstimmen, wird das benutzerdefinierte Sprachmodell nicht angewendet. Es gibt keine Fehler oder Warnungen, die mit einer Sprachinkongruenz verbunden sind.

Weitere Informationen finden Sie unter Benutzerdefinierte Sprachmodelle.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

MediaEncoding

Geben Sie die Kodierung Ihres Eingangs-Audios an. Unterstützte Formate sind:

  • FLAC

  • OPUS-kodiertes Audio in einem Ogg-Container

  • PCM (nur signierte 16-Bit-Little-Endian-Audioformate, die WAV nicht enthalten)

Weitere Informationen finden Sie unter Medienformate.

Zulässige Werte: pcm | ogg-opus | flac

Erforderlich: Ja

MediaSampleRateHertz

Die Samplerate des Eingangs-Audios (in Hertz). Audio von geringer Qualität, wie z. B. Telefonaudio, liegt typischerweise bei etwa 8.000 Hz. Die hohe Audioqualität reicht normalerweise von 16.000 Hz bis 48.000 Hz. Beachten Sie, dass die von Ihnen angegebene Samplerate mit der Ihres Audios übereinstimmen muss.

Gültiger Bereich: Mindestwert 8000. Maximaler Wert von 48000.

Erforderlich: Ja

PartialResultsStability

Geben Sie den Stabilitätsgrad an, der verwendet werden soll, wenn Sie die Stabilisierung von Teilergebnissen aktivieren (EnablePartialResultsStabilization).

Eine geringe Stabilität sorgt für höchste Genauigkeit. Hohe Stabilität transkribiert schneller, aber mit etwas geringerer Genauigkeit.

Weitere Informationen finden Sie unter Partielle Ergebnisstabilisierung.

Zulässige Werte: high | medium | low

PiiEntityTypes

Geben Sie in Ihrem Protokoll an, welche Arten von personenbezogenen Daten (PII) Sie redigieren möchten. Sie können so viele Typen hinzufügen, wie Sie möchten, oder Sie können auswählenALL.

Um esPiiEntityTypes in Ihre Call Analytics-Anfrage aufzunehmen, müssen Sie auch entwederContentIdentificationType oder angebenContentRedactionType.

Werte müssen durch Kommas getrennt sein und können Folgendes beinhalten:ADDRESS,,BANK_ACCOUNT_NUMBER,BANK_ROUTING,,CREDIT_DEBIT_CVV,CREDIT_DEBIT_EXPIRY,CREDIT_DEBIT_NUMBER,EMAIL,,NAME,PHONE,PIN,SSN,, oderALL.

Längenbeschränkungen: Minimale Länge von 1. Maximale Länge beträgt 300 Zeichen.

Pattern: ^[A-Z_, ]+

SessionId

Geben Sie einen Namen für Ihre Call Analytics-Transkriptionssitzung an. Wenn Sie diesen Parameter nicht in Ihre Anfrage aufnehmen, generiert Amazon Transcribe eine ID und gibt sie in der Antwort zurück.

Längenbeschränkungen: Feste Länge von 36.

Pattern: [a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}

VocabularyFilterMethod

Geben Sie an, wie Ihr Vokabelfilter auf Ihr Transkript angewendet werden soll.

Um Wörter zu ersetzen durch***, wählen Siemask.

Um Wörter zu löschen, wählen Sieremove.

Um Wörter zu kennzeichnen, ohne sie zu ändern, wählen Sietag.

Zulässige Werte: remove | mask | tag

VocabularyFilterName

Geben Sie den Namen des benutzerdefinierten Vokabelfilters an, den Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Namen von Vokabelfiltern zwischen Groß- und Kleinschreibung unterschieden wird.

Wenn die Sprache des angegebenen benutzerdefinierten Vokabelfilters nicht mit der in Ihren Medien identifizierten Sprache übereinstimmt, wird der Vokabelfilter nicht auf Ihre Transkription angewendet.

Weitere Informationen finden Sie unter Verwenden der Wortschatzfilterung mit unerwünschten Wörtern.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

VocabularyName

Geben Sie den Namen des benutzerdefinierten Vokabulars an, das Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Vokabelnamen zwischen Groß- und Kleinschreibung unterschieden wird.

Wenn die Sprache des angegebenen benutzerdefinierten Wortschatzes nicht mit der in Ihren Medien angegebenen Sprache übereinstimmt, wird das benutzerdefinierte Vokabular nicht auf Ihre Transkription angewendet.

Weitere Informationen finden Sie unter Benutzerdefiniertes Vokabular.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

Anforderungstext

Die Anforderung akzeptiert die folgenden Daten im JSON-Format.

AudioStream

Ein kodierter Stream von Audio-Blobs. Audiostreams werden entweder als HTTP/2 oder als WebSocket Datenrahmen codiert.

Weitere Informationen finden Sie unter Transkriptionsprotokolle von Streaming-Audio.

Typ: CallAnalyticsAudioStream Objekt

Erforderlich: Ja

Antwortsyntax

HTTP/2 200 x-amzn-request-id: RequestId x-amzn-transcribe-language-code: LanguageCode x-amzn-transcribe-sample-rate: MediaSampleRateHertz x-amzn-transcribe-media-encoding: MediaEncoding x-amzn-transcribe-vocabulary-name: VocabularyName x-amzn-transcribe-session-id: SessionId x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod x-amzn-transcribe-language-model-name: LanguageModelName x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization x-amzn-transcribe-partial-results-stability: PartialResultsStability x-amzn-transcribe-content-identification-type: ContentIdentificationType x-amzn-transcribe-content-redaction-type: ContentRedactionType x-amzn-transcribe-pii-entity-types: PiiEntityTypes Content-type: application/json { "CallAnalyticsTranscriptResultStream": { "BadRequestException": { }, "CategoryEvent": { "MatchedCategories": [ "string" ], "MatchedDetails": { "string" : { "TimestampRanges": [ { "BeginOffsetMillis": number, "EndOffsetMillis": number } ] } } }, "ConflictException": { }, "InternalFailureException": { }, "LimitExceededException": { }, "ServiceUnavailableException": { }, "UtteranceEvent": { "BeginOffsetMillis": number, "EndOffsetMillis": number, "Entities": [ { "BeginOffsetMillis": number, "Category": "string", "Confidence": number, "Content": "string", "EndOffsetMillis": number, "Type": "string" } ], "IsPartial": boolean, "IssuesDetected": [ { "CharacterOffsets": { "Begin": number, "End": number } } ], "Items": [ { "BeginOffsetMillis": number, "Confidence": number, "Content": "string", "EndOffsetMillis": number, "Stable": boolean, "Type": "string", "VocabularyFilterMatch": boolean } ], "ParticipantRole": "string", "Sentiment": "string", "Transcript": "string", "UtteranceId": "string" } } }

Antwortelemente

Wenn die Aktion erfolgreich ist, sendet der Service eine HTTP 200-Antwort zurück.

Die Antwort gibt die folgenden HTTP-Header zurück.

ContentIdentificationType

Zeigt an, ob die Inhaltsidentifikation für Ihre Call Analytics-Transkription aktiviert wurde.

Zulässige Werte: PII

ContentRedactionType

Zeigt an, ob die Inhaltsredaktion für Ihre Call Analytics-Transkription aktiviert wurde.

Zulässige Werte: PII

EnablePartialResultsStabilization

Zeigt an, ob die Stabilisierung der teilweisen Ergebnisse für Ihre Call Analytics-Transkription aktiviert wurde.

LanguageCode

Stellt den Sprachcode bereit, den Sie in Ihrer Call Analytics-Anfrage angegeben haben.

Zulässige Werte: en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR

LanguageModelName

Stellt den Namen des benutzerdefinierten Sprachmodells bereit, das Sie in Ihrer Call Analytics-Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

MediaEncoding

Stellt die Medienkodierung bereit, die Sie in Ihrer Call Analytics-Anfrage angegeben haben.

Zulässige Werte: pcm | ogg-opus | flac

MediaSampleRateHertz

Stellt die Samplerate bereit, die Sie in Ihrer Call Analytics-Anfrage angegeben haben.

Gültiger Bereich: Mindestwert 8000. Maximaler Wert von 48000.

PartialResultsStability

Stellt den Stabilisierungsgrad bereit, der für Ihre Transkription verwendet wurde.

Zulässige Werte: high | medium | low

PiiEntityTypes

Listet die PII-Entitätstypen auf, die Sie in Ihrer Call Analytics-Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Maximale Länge beträgt 300 Zeichen.

Pattern: ^[A-Z_, ]+

RequestId

Stellt die Kennung für Ihre Call Analytics-Anfrage in Echtzeit bereit.

SessionId

Stellt die Kennung für Ihre Call Analytics-Transkriptionssitzung bereit.

Längenbeschränkungen: Feste Länge von 36.

Pattern: [a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}

VocabularyFilterMethod

Stellt die Methode zur Wortschatzfilterung bereit, die in Ihrer Call Analytics-Transkription verwendet wird.

Zulässige Werte: remove | mask | tag

VocabularyFilterName

Gibt den Namen des benutzerdefinierten Vokabelfilters an, den Sie in Ihrer Call Analytics-Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

VocabularyName

Gibt den Namen des benutzerdefinierten Vokabulars an, das Sie in Ihrer Call Analytics-Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

Die folgenden Daten werden vom Service im JSON-Format zurückgegeben.

CallAnalyticsTranscriptResultStream

Stellt detaillierte Informationen zu Ihrer Call Analytics-Sitzung in Echtzeit bereit.

Typ: CallAnalyticsTranscriptResultStream Objekt

Fehler

Hinweise zu den Fehlern, die allen Aktionen gemeinsam sind, finden Sie unterHäufige Fehler.

BadRequestException

Ein oder mehrere Argumente für dieStartCallAnalyticsStreamTranscription OperationStartStreamTranscriptionStartMedicalStreamTranscription,, oder waren nicht gültig. Zum BeispielMediaEncoding oderLanguageCode verwendete nicht unterstützte Werte. Überprüfen Sie die angegebenen Parameter und versuchen Sie es erneut mit Ihrer Anfrage.

HTTP Status Code: 400

ConflictException

Ein neuer Stream wurde mit derselben Sitzungs-ID gestartet. Der aktuelle Stream wurde beendet.

HTTP-Statuscode: 409

InternalFailureException

Bei der Verarbeitung des Audios ist ein Problem aufgetreten. Amazon Transcribe hat die Verarbeitung beendet.

HTTP Status Code: 500

LimitExceededException

Ihr Kunde hat eines der Amazon Transcribe Transcribe-Grenzwerte überschritten. Dies ist normalerweise die Audiolängenbeschränkung. Teilen Sie Ihren Audiostream in kleinere Teile auf und versuchen Sie es erneut mit Ihrer Anfrage.

HTTP-Statuscode: 429

ServiceUnavailableException

Der Service ist derzeit nicht verfügbar. Versuchen Sie Ihre Anfrage später erneut.

HTTP Status Code: 503

Weitere Informationen finden Sie unter:

Weitere Informationen zur Verwendung dieser API in einem der sprachspezifischen AWS-SDKs finden Sie unter: