StartStreamTranscription - Transcribe

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

StartStreamTranscription

Startet einen bidirektionalen WebSocket HTTP/2-Stream, bei dem Audio an Amazon Transcribe und die Transkriptionsergebnisse an Ihre Anwendung gestreamt werden.

Die folgenden Parameter sind erforderlich:

  • language-code oder identify-language

  • media-encoding

  • sample-rate

Weitere Informationen zum Streamen mit Amazon Transcribe finden Sie unter Transkribieren von Streaming-Audio.

Anforderungssyntax

POST /stream-transcription HTTP/2 x-amzn-transcribe-language-code: LanguageCode x-amzn-transcribe-sample-rate: MediaSampleRateHertz x-amzn-transcribe-media-encoding: MediaEncoding x-amzn-transcribe-vocabulary-name: VocabularyName x-amzn-transcribe-session-id: SessionId x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod x-amzn-transcribe-show-speaker-label: ShowSpeakerLabel x-amzn-transcribe-enable-channel-identification: EnableChannelIdentification x-amzn-transcribe-number-of-channels: NumberOfChannels x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization x-amzn-transcribe-partial-results-stability: PartialResultsStability x-amzn-transcribe-content-identification-type: ContentIdentificationType x-amzn-transcribe-content-redaction-type: ContentRedactionType x-amzn-transcribe-pii-entity-types: PiiEntityTypes x-amzn-transcribe-language-model-name: LanguageModelName x-amzn-transcribe-identify-language: IdentifyLanguage x-amzn-transcribe-language-options: LanguageOptions x-amzn-transcribe-preferred-language: PreferredLanguage x-amzn-transcribe-vocabulary-names: VocabularyNames x-amzn-transcribe-vocabulary-filter-names: VocabularyFilterNames Content-type: application/json { "AudioStream": { "AudioEvent": { "AudioChunk": blob } } }

URI-Anfrageparameter

Die Anforderung verwendet die folgenden URI-Parameter.

ContentIdentificationType

Kennzeichnet alle persönlich identifizierbaren Informationen (PII), die in Ihrem Transkript identifiziert wurden.

Die Inhaltsidentifikation erfolgt auf Segmentebene. Die inPiiEntityTypes angegebenen personenbezogenen Daten werden nach vollständiger Transkription eines Audiosegments gekennzeichnet.

Sie können nichtContentIdentificationType undContentRedactionType in derselben Anfrage festlegen. Wenn Sie beide einstellen, gibt Ihre Anfrage a zurückBadRequestException.

Weitere Informationen finden Sie unter Personenbezogene Daten redigieren oder identifizieren.

Zulässige Werte: PII

ContentRedactionType

Redigiert alle persönlich identifizierbaren Informationen (PII), die in Ihrem Transkript identifiziert werden.

Die Inhaltsredigierung erfolgt auf Segmentebene. Die inPiiEntityTypes angegebenen PII werden nach vollständiger Transkription eines Audiosegments redigiert.

Sie können nichtContentRedactionType undContentIdentificationType in derselben Anfrage festlegen. Wenn Sie beide einstellen, gibt Ihre Anfrage a zurückBadRequestException.

Weitere Informationen finden Sie unter Personenbezogene Daten redigieren oder identifizieren.

Zulässige Werte: PII

EnableChannelIdentification

Aktiviert die Kanalidentifikation bei Mehrkanal-Audio.

Die Kanalidentifikation transkribiert das Audio auf jedem Kanal unabhängig und fügt dann die Ausgabe für jeden Kanal in ein Transkript an.

Wenn Sie Mehrkanal-Audio verwenden und die Kanalidentifikation nicht aktivieren, wird Ihr Audio kontinuierlich transkribiert und Ihr Transkript ist nicht nach Kanälen getrennt.

Wenn SieEnableChannelIdentification in Ihrer Anfrage einschließen, müssen Sie auch einschließenNumberOfChannels.

Weitere Informationen finden Sie unter Transkription von Mehrkanal-Audio.

EnablePartialResultsStabilization

Ermöglicht eine teilweise Stabilisierung der Ergebnisse für Ihre Transkription. Eine teilweise Stabilisierung der Ergebnisse kann die Latenz bei der Ausgabe verringern, kann jedoch die Genauigkeit beeinträchtigen. Weitere Informationen finden Sie unter Stabilisierung partieller Ergebnisse.

IdentifyLanguage

Aktiviert die automatische Sprachidentifikation für Ihre Transkription.

Wenn Sie hinzufügenIdentifyLanguage, können Sie optional eine Liste von Sprachcodes hinzufügen, indem Sie verwendenLanguageOptions, von denen Sie glauben, dass sie in Ihrem Audiostream vorhanden sein könnten. Die Einbeziehung von Sprachoptionen kann die Genauigkeit der Transkription verbessern.

Sie können auch eine bevorzugte Sprache einschließenPreferredLanguage. Wenn Sie eine bevorzugte Sprache hinzufügen, kann Amazon Transcribe die Sprache schneller identifizieren, als wenn Sie diesen Parameter weglassen.

Wenn Sie Mehrkanal-Audio verwenden, das auf jedem Kanal unterschiedliche Sprachen enthält, und Sie die Kanalidentifikation aktiviert haben, identifiziert die automatische Sprachidentifikation die dominante Sprache auf jedem Audiokanal.

Beachten Sie, dass Sie entwederLanguageCode oderIdentifyLanguage in Ihre Anfrage aufnehmen müssen. Wenn Sie beide Parameter angeben, schlägt Ihre Anfrage fehl.

Die Streaming-Sprachenidentifikation kann nicht mit benutzerdefinierten Sprachmodellen oder Redaktionen kombiniert werden.

LanguageCode

Geben Sie den Sprachcode an, der die in Ihrem Audio gesprochene Sprache darstellt.

Wenn Sie sich nicht sicher sind, welche Sprache in Ihrem Audio gesprochen wird, sollten Sie erwägen, diese OptionIdentifyLanguage zu verwenden, um die automatische Sprachenidentifikation zu aktivieren.

Eine Liste der Sprachen, die vom Amazon Transcribe-Streaming unterstützt werden, finden Sie in der Tabelle Unterstützte Sprachen.

Zulässige Werte: en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR | ja-JP | ko-KR | zh-CN | hi-IN | th-TH

LanguageModelName

Geben Sie den Namen des benutzerdefinierten Sprachmodells an, das Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Namen von Sprachmodellen zwischen Groß- und Kleinschreibung unterschieden.

Die Sprache des angegebenen Sprachmodells muss mit dem Sprachcode übereinstimmen, den Sie in Ihrer Transkriptionsanfrage angegeben haben. Wenn die Sprachen nicht übereinstimmen, wird das benutzerdefinierte Sprachmodell nicht angewendet. Es gibt keine Fehler oder Warnungen, die mit einer Sprachinkongruenz verbunden sind.

Weitere Informationen finden Sie unter Benutzerdefinierte Sprachmodelle.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

LanguageOptions

Geben Sie zwei oder mehr Sprachcodes an, die für die Sprachen stehen, die Ihrer Meinung nach in Ihren Medien vorkommen könnten. Es wird nicht empfohlen, mehr als fünf zu verwenden. Wenn Sie sich nicht sicher sind, welche Sprachen vorhanden sind, geben Sie diesen Parameter nicht an.

Durch die Einbeziehung von Sprachoptionen kann die Genauigkeit der Sprachidentifikation verbessert werden.

Wenn SieLanguageOptions in Ihrer Anfrage einschließen, müssen Sie auch einschließenIdentifyLanguage.

Eine Liste der Sprachen, die vom Amazon Transcribe-Streaming unterstützt werden, finden Sie in der Tabelle Unterstützte Sprachen.

Wichtig

Sie können nur einen Sprachdialekt pro Sprache und pro Stream einschließen. Sie können beispielsweise nicht dieselbe Anfrage miten-US unden-AU in dieselbe Anfrage aufnehmen.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[a-zA-Z-,]+

MediaEncoding

Geben Sie die Kodierung Ihres Eingangs-Audios an. Unterstützte Formate sind:

  • FLAC

  • OPUS-kodiertes Audio in einem Ogg-Container

  • PCM (nur signierte 16-Bit-Little-Endian-Audioformate, die WAV nicht enthalten)

Weitere Informationen finden Sie unter Medienformate.

Zulässige Werte: pcm | ogg-opus | flac

Erforderlich: Ja

MediaSampleRateHertz

Die Abtastrate des Eingangs-Audios (in Hertz). Audio von geringer Qualität, wie z. B. Telefonaudio, liegt typischerweise bei etwa 8.000 Hz. Die Audioqualität liegt typischerweise zwischen 16.000 Hz und 48.000 Hz. Beachten Sie, dass die von Ihnen angegebene Samplerate mit der Ihres Audios übereinstimmen muss.

Gültiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger Maximaler Maximaler Maximaler Maximaler Maximalwert 48000.

Erforderlich: Ja

NumberOfChannels

Geben Sie die Anzahl der Kanäle in Ihrem Audiostream an. Dieser Wert muss sein2, da nur zwei Kanäle unterstützt werden. Wenn Ihr Audio nicht mehrere Kanäle enthält, nehmen Sie diesen Parameter nicht in Ihre Anfrage auf.

Wenn SieNumberOfChannels in Ihrer Anfrage einschließen, müssen Sie auch einschließenEnableChannelIdentification.

Mindestwert 2.

PartialResultsStability

Geben Sie den Stabilitätsgrad an, der verwendet werden soll, wenn Sie die Stabilisierung von Teilergebnissen aktivieren (EnablePartialResultsStabilization).

Eine geringe Stabilität sorgt für höchste Genauigkeit. Hohe Stabilität transkribiert schneller, aber mit etwas geringerer Genauigkeit.

Weitere Informationen finden Sie unter Stabilisierung partieller Ergebnisse.

Zulässige Werte: high | medium | low

PiiEntityTypes

Geben Sie in Ihrem Protokoll an, welche Arten von personenbezogenen Daten (PII) Sie redigieren möchten. Sie können so viele Typen hinzufügen, wie Sie möchten, oder Sie können auswählenALL.

Um diesPiiEntityTypes in Ihre Anfrage aufzunehmen, müssen Sie auch entwederContentIdentificationType oder angebenContentRedactionType.

Werte müssen durch Kommas getrennt sein und können Folgendes beinhalten:ADDRESS,,BANK_ACCOUNT_NUMBER,BANK_ROUTING,CREDIT_DEBIT_CVV,CREDIT_DEBIT_EXPIRY,CREDIT_DEBIT_NUMBER,,EMAIL,NAME,PHONE,PIN,SSN,, oderALL.

Längenbeschränkungen: Minimale Länge von 1. Maximale Länge beträgt 300 Zeichen.

Pattern: ^[A-Z_, ]+

PreferredLanguage

Geben Sie eine bevorzugte Sprache aus der Untergruppe der Sprachcodes an, in denen Sie angegeben habenLanguageOptions.

Sie können diesen Parameter nur verwenden, wenn SieIdentifyLanguage undLanguageOptions in Ihre Anfrage aufgenommen haben.

Zulässige Werte: en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR | ja-JP | ko-KR | zh-CN | hi-IN | th-TH

SessionId

Geben Sie einen Namen für Ihre Transkriptionssitzung an. Wenn Sie diesen Parameter nicht in Ihre Anfrage aufnehmen, generiert Amazon Transcribe eine ID und gibt sie in der Antwort zurück.

Maximale Länge beträgt 36 Zeichen.

Pattern: [a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}

ShowSpeakerLabel

Aktiviert die Lautsprecherpartitionierung (Diarisierung) in Ihrer Transkriptionsausgabe. Die Lautsprecherpartitionierung kennzeichnet die Sprache einzelner Lautsprecher in Ihrer Mediendatei.

Weitere Informationen finden Sie unter Partitionierung von Lautsprechern (Diarisierung).

VocabularyFilterMethod

Geben Sie an, wie Ihr Vokabelfilter auf Ihr Transkript angewendet werden soll.

Um Wörter zu ersetzen durch***, wählen Siemask.

Um Wörter zu löschen, wählen Sieremove.

Um Wörter zu kennzeichnen, ohne sie zu ändern, wählen Sietag.

Zulässige Werte: remove | mask | tag

VocabularyFilterName

Geben Sie den Namen des benutzerdefinierten Vokabelfilters an, den Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Namen von Vokabelfiltern zwischen Groß- und Kleinschreibung unterschieden.

Wenn die Sprache des angegebenen benutzerdefinierten Vokabelfilters nicht mit der in Ihren Medien identifizierten Sprache übereinstimmt, wird der Vokabelfilter nicht auf Ihre Transkription angewendet.

Wichtig

Dieser Parameter ist nicht für die Verwendung mit demIdentifyLanguage Parameter vorgesehen. Wenn Sie diesIdentifyLanguage in Ihre Anfrage einbeziehen und einen oder mehrere Vokabelfilter für Ihre Transkription verwenden möchten, verwenden Sie stattdessen denVocabularyFilterNames Parameter.

Weitere Informationen finden Sie unter Verwenden der Wortschatzfilterung mit unerwünschten Wörtern.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

VocabularyFilterNames

Geben Sie die Namen der benutzerdefinierten Vokabelfilter an, die Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Namen von Vokabelfiltern zwischen Groß- und Kleinschreibung unterschieden.

Wenn keine der Sprachen der angegebenen benutzerdefinierten Vokabelfilter mit der in Ihren Medien identifizierten Sprache übereinstimmt, schlägt Ihr Job fehl.

Wichtig

Dieser Parameter ist nur für die Verwendung mit demIdentifyLanguage Parameter vorgesehen. Wenn Sie dies nichtIdentifyLanguage in Ihre Anfrage einbeziehen und einen benutzerdefinierten Vokabelfilter für Ihre Transkription verwenden möchten, verwenden Sie stattdessen denVocabularyFilterName Parameter.

Weitere Informationen finden Sie unter Verwenden der Wortschatzfilterung mit unerwünschten Wörtern.

Längenbeschränkungen: Minimale Länge von 1. Maximale Maximale Maximale Maximale Länge beträgt 3000 Zeichen.

Pattern: ^[a-zA-Z0-9,-._]+

VocabularyName

Geben Sie den Namen des benutzerdefinierten Vokabulars an, das Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Vokabelnamen zwischen Groß- und Kleinschreibung unterschieden.

Wenn die Sprache des angegebenen benutzerdefinierten Wortschatzes nicht mit der in Ihren Medien angegebenen Sprache übereinstimmt, wird das benutzerdefinierte Vokabular nicht auf Ihre Transkription angewendet.

Wichtig

Dieser Parameter ist nicht für die Verwendung mit demIdentifyLanguage Parameter vorgesehen. Wenn Sie diesIdentifyLanguage in Ihre Anfrage einbeziehen und ein oder mehrere benutzerdefinierte Vokabeln für Ihre Transkription verwenden möchten, verwenden Sie stattdessen denVocabularyNames Parameter.

Weitere Informationen finden Sie unter Benutzerdefinierte Vokabulare.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

VocabularyNames

Geben Sie die Namen der benutzerdefinierten Vokabeln an, die Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Vokabelnamen zwischen Groß- und Kleinschreibung unterschieden.

Wenn keine der Sprachen der angegebenen benutzerdefinierten Vokabeln mit der in Ihren Medien identifizierten Sprache übereinstimmt, schlägt Ihr Job fehl.

Wichtig

Dieser Parameter ist nur für die Verwendung mit demIdentifyLanguage Parameter vorgesehen. Wenn Sie dies nichtIdentifyLanguage in Ihrer Anfrage angeben und ein benutzerdefiniertes Vokabular für Ihre Transkription verwenden möchten, verwenden Sie stattdessen denVocabularyName Parameter.

Weitere Informationen finden Sie unter Benutzerdefinierte Vokabulare.

Längenbeschränkungen: Minimale Länge von 1. Maximale Maximale Maximale Maximale Länge beträgt 3000 Zeichen.

Pattern: ^[a-zA-Z0-9,-._]+

Anforderungstext

Die Anforderung akzeptiert die folgenden Daten im JSON-Format.

AudioStream

Ein kodierter Stream von Audio-Blobs. Audiostreams werden entweder als HTTP/2 oder als WebSocket Datenrahmen codiert.

Weitere Informationen finden Sie unter Transkription von Streaming-Audio.

Typ: AudioStream Objekt

Erforderlich: Ja

Antwortsyntax

HTTP/2 200 x-amzn-request-id: RequestId x-amzn-transcribe-language-code: LanguageCode x-amzn-transcribe-sample-rate: MediaSampleRateHertz x-amzn-transcribe-media-encoding: MediaEncoding x-amzn-transcribe-vocabulary-name: VocabularyName x-amzn-transcribe-session-id: SessionId x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod x-amzn-transcribe-show-speaker-label: ShowSpeakerLabel x-amzn-transcribe-enable-channel-identification: EnableChannelIdentification x-amzn-transcribe-number-of-channels: NumberOfChannels x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization x-amzn-transcribe-partial-results-stability: PartialResultsStability x-amzn-transcribe-content-identification-type: ContentIdentificationType x-amzn-transcribe-content-redaction-type: ContentRedactionType x-amzn-transcribe-pii-entity-types: PiiEntityTypes x-amzn-transcribe-language-model-name: LanguageModelName x-amzn-transcribe-identify-language: IdentifyLanguage x-amzn-transcribe-language-options: LanguageOptions x-amzn-transcribe-preferred-language: PreferredLanguage x-amzn-transcribe-vocabulary-names: VocabularyNames x-amzn-transcribe-vocabulary-filter-names: VocabularyFilterNames Content-type: application/json { "TranscriptResultStream": { "BadRequestException": { }, "ConflictException": { }, "InternalFailureException": { }, "LimitExceededException": { }, "ServiceUnavailableException": { }, "TranscriptEvent": { "Transcript": { "Results": [ { "Alternatives": [ { "Entities": [ { "Category": "string", "Confidence": number, "Content": "string", "EndTime": number, "StartTime": number, "Type": "string" } ], "Items": [ { "Confidence": number, "Content": "string", "EndTime": number, "Speaker": "string", "Stable": boolean, "StartTime": number, "Type": "string", "VocabularyFilterMatch": boolean } ], "Transcript": "string" } ], "ChannelId": "string", "EndTime": number, "IsPartial": boolean, "LanguageCode": "string", "LanguageIdentification": [ { "LanguageCode": "string", "Score": number } ], "ResultId": "string", "StartTime": number } ] } } } }

Antwortelemente

Wenn die Aktion erfolgreich ist, sendet der Service eine HTTP 200-Antwort zurück.

Die Antwort gibt die folgenden HTTP-Header zurück.

ContentIdentificationType

Zeigt an, ob die Inhaltsidentifikation für Ihre Transkription aktiviert wurde.

Zulässige Werte: PII

ContentRedactionType

Zeigt an, ob die Inhaltsredaktion für Ihre Transkription aktiviert wurde.

Zulässige Werte: PII

EnableChannelIdentification

Zeigt an, ob die Kanalidentifikation für Ihre Transkription aktiviert wurde.

EnablePartialResultsStabilization

Zeigt an, ob die Stabilisierung der partiellen Ergebnisse für Ihre Transkription aktiviert wurde.

IdentifyLanguage

Zeigt an, ob die automatische Sprachenidentifikation für Ihre Transkription aktiviert wurde.

LanguageCode

Stellt den Sprachcode bereit, den Sie in Ihrer Anfrage angegeben haben.

Zulässige Werte: en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR | ja-JP | ko-KR | zh-CN | hi-IN | th-TH

LanguageModelName

Gibt den Namen des benutzerdefinierten Sprachmodells an, das Sie in Ihrer Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

LanguageOptions

Stellt die Sprachcodes bereit, die Sie in Ihrer Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[a-zA-Z-,]+

MediaEncoding

Stellt die Medienkodierung bereit, die Sie in Ihrer Anfrage angegeben haben.

Zulässige Werte: pcm | ogg-opus | flac

MediaSampleRateHertz

Gibt die Samplerate an, die Sie in Ihrer Anfrage angegeben haben.

Gültiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger tiger Maximaler Maximaler Maximaler Maximaler Maximalwert 48000.

NumberOfChannels

Gibt die Anzahl der Kanäle an, die Sie in Ihrer Anfrage angegeben haben.

Mindestwert 2.

PartialResultsStability

Stellt den Stabilisierungsgrad bereit, der für Ihre Transkription verwendet wurde.

Zulässige Werte: high | medium | low

PiiEntityTypes

Listet die PII-Entitätstypen auf, die Sie in Ihrer Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Maximale Länge beträgt 300 Zeichen.

Pattern: ^[A-Z_, ]+

PreferredLanguage

Gibt die bevorzugte Sprache an, die Sie in Ihrer Anfrage angegeben haben.

Zulässige Werte: en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR | ja-JP | ko-KR | zh-CN | hi-IN | th-TH

RequestId

Stellt die Kennung für Ihre Streaming-Anfrage bereit.

SessionId

Stellt die Kennung für Ihre Transkriptionssitzung bereit.

Maximale Länge beträgt 36 Zeichen.

Pattern: [a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}

ShowSpeakerLabel

Zeigt an, ob die Lautsprecherpartitionierung für Ihre Transkription aktiviert wurde.

VocabularyFilterMethod

Stellt die Methode zur Filterung des Wortschatzes bereit, die in Ihrer Transkription verwendet wird.

Zulässige Werte: remove | mask | tag

VocabularyFilterName

Gibt den Namen des benutzerdefinierten Vokabelfilters an, den Sie in Ihrer Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

VocabularyFilterNames

Stellt die Namen der benutzerdefinierten Vokabelfilter bereit, die Sie in Ihrer Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Maximale Maximale Maximale Maximale Länge beträgt 3000 Zeichen.

Pattern: ^[a-zA-Z0-9,-._]+

VocabularyName

Gibt den Namen des benutzerdefinierten Vokabulars an, das Sie in Ihrer Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.

Pattern: ^[0-9a-zA-Z._-]+

VocabularyNames

Stellt die Namen der benutzerdefinierten Vokabeln bereit, die Sie in Ihrer Anfrage angegeben haben.

Längenbeschränkungen: Minimale Länge von 1. Maximale Maximale Maximale Maximale Länge beträgt 3000 Zeichen.

Pattern: ^[a-zA-Z0-9,-._]+

Die folgenden Daten werden vom Service im JSON-Format zurückgegeben.

TranscriptResultStream

Bietet detaillierte Informationen zu Ihrer Streaming-Session.

Typ: TranscriptResultStream Objekt

Fehler

Hinweise zu den Fehlern, die allen Aktionen gemeinsam sind, finden Sie unterHäufige Fehler.

BadRequestException

Ein oder mehrere Argumente für dieStartCallAnalyticsStreamTranscription OperationStartStreamTranscriptionStartMedicalStreamTranscription,, oder waren nicht gültig. Zum BeispielMediaEncoding oderLanguageCode verwendete nicht unterstützte Werte. Überprüfen Sie die angegebenen Parameter und versuchen Sie es erneut mit Ihrer Anfrage.

HTTP Status Code: 400

ConflictException

Ein neuer Stream wurde mit derselben Sitzungs-ID gestartet. Der aktuelle Stream wurde beendet.

HTTP-Statuscode: 409

InternalFailureException

Bei der Verarbeitung des Audios ist ein Problem aufgetreten. Amazon Transcribe hat die Verarbeitung beendet.

HTTP Status Code: 500

LimitExceededException

Ihr Kunde hat eines der Amazon Transcribe Transcribe-Grenzwerte überschritten. Dies ist normalerweise die Audiolängenbeschränkung. Teilen Sie Ihren Audiostream in kleinere Teile auf und versuchen Sie es erneut mit Ihrer Anfrage.

HTTP-Statuscode: 429

ServiceUnavailableException

Der Service ist derzeit nicht verfügbar. Versuchen Sie Ihre Anfrage später erneut.

HTTP Status Code: 503

Weitere Informationen finden Sie unter:

Weitere Informationen zur Verwendung dieser API in einem der sprachspezifischen AWS-SDKs finden Sie unter: