Arbeiten mit Media Capture-Artefakten - Amazon Chime SDK

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Arbeiten mit Media Capture-Artefakten

Während eines Amazon Chime SDK-Meetings erstellt eine Medienerfassungspipeline die folgenden Arten von Artefakten.

  • Audio

  • Video

  • Datenkanal-Nachrichten

  • Meeting-Events

  • Transkriptionsnachrichten

Die Pipeline erstellt die Artefakte in einer Reihe von Ordnern in Ihrem Amazon S3 S3-Bucket und Sie können die Audio- und Videoordner so konfigurieren, dass bestimmte Arten von Artefakten eingeschränkt werden. In den folgenden Abschnitten wird die Ordnerstruktur erläutert, wie Sie Ordner konfigurieren, Berechtigungen für Ihren Amazon S3 S3-Bucket festlegen und wie Sie die Artefaktdateien verketten.

Grundlegendes zur Ordnerstruktur

<S3 bucket path>/ |— audio |— video |— data-channel |— meeting-events |— transcription-messages

Die Pipeline erstellt alle 5 Sekunden neue Artefakte. Infolgedessen enthält jeder Ordner mehrere 5-Sekunden-Böcke eines Artefakts.

Anmerkung

Wenn Sie beim Erstellen einer Pipeline zur Medienerfassung ein Präfix angeben, wird der Pfad zu den Ordnern.<BucketName>/<PreFix>aus. Ohne Präfix wird der Pfad<BucketName>/<MeetingId>aus. Sie geben ein Präfix als Teil des Senken-ARN-Pfads an. Beispiel: --sink-arn arn:aws:s3:::[bucket name]/[prefix]

Konfigurieren des Audio-Ordners

Der Audioordner enthält 5-Sekunden-MP4-Dateien des gemischten Audiostreams, was bedeutet, dass sie Audio von allen Teilnehmern sowie das Video des aktiven Sprechers enthalten. Der Ordner enthält Dateien für das gesamte Meeting. Wie gewünscht können Sie den Ordner so konfigurieren, dass er nur die Audio-Artefakte enthält. Jeder Dateiname enthält einen <yyyy-mm-dd-hour-min-seconds-milleseconds>Zeitstempel. Der Zeitstempel befindet sich in UTC und markiert die Startzeit. Sie können den Ordner so konfigurieren, dass er nur Audio-Artefakte enthält.

"ArtifactsConfiguration": { "Audio": { "MuxType": "AudioOnly" }, "Content": { "State": "Disabled" }, "Video": { "State": "Disabled" } }

Konfigurieren des Videoordners

Der Videoordner enthält 5-Sekunden-MP4-Dateien, die Videostreams enthalten, sowie Content-Share-Streams, wenn sie in der API-Anfrage angegeben sind. Jeder Dateiname enthält einen <yyyy-mm-dd-hour-min-seconds-milleseconds>- <attendeeID>Zeitstempel mit einer Teilnehmer-ID. Der Videoblock für die Inhaltsfreigabe wird als <yyyy-mm-dd-hour-min-seconds-milleseconds>- <attendeeID>#content .mp4 angehängt. Sie können den Ordner so konfigurieren, dass er nur Videoartefakte enthält.

"ArtifactsConfiguration": { "Audio": { "MuxType": "AudioOnly" }, "Content": { "State": "Disabled" }, "Video": { "MuxType": "VideoOnly" "State": "Enabled" } }

Grundlegendes zu Datenmeldungen

Der Data-Channel-Ordner enthält Datenmeldungen im .txt-Format und jede Nachricht ist ein JSON-Objekt. Nachrichten sind mit allen Konfigurationsoptionen sichtbar. Dateinamen enthalten den <yyyy-mm-dd-hour-min-seconds-milleseconds>Zeitstempel. Dieses Beispiel zeigt die Datenfelder in einer Nachricht.

{ "Timestamp": "string", "Topic": "string", "Data": "string", "SenderAttendeeId": "string" }

Verständnis von Meetingveranstaltungen

Der Ordner Meeting-Events enthält Besprechungsereignisse im .txt-Format und jedes Ereignis ist ein JSON-Objekt. Nachrichten sind mit allen Konfigurationsoptionen sichtbar. Dateinamen enthalten den <yyyy-mm-dd-hour-min-seconds-milleseconds>Zeitstempel. Dieses Beispiel zeigt die Felder und Daten in einer typischen Ereignisdatei.

{ "Timestamp": "string", "EventType": "AttendeeJoined | AttendeeLeft | AttendeeVideoJoined | AttendeeVideoLeft | ActiveSpeaker | CaptureStarted | CaptureEnded | AudioTrackMute | AudioTrackUnmute", "EventParameters": { # ... } }

Verständnis von Transkriptionsnachrichten

Der Ordner „Transkriptionsnachrichten“ enthält Transkriptionsdateien im .txt-Format. Der Ordner empfängt jedoch nur Dateien, wenn Sie die Live-Transkription aktivieren. Weitere Informationen zur Aktivierung der Live-Transkription finden Sie unter.Live-Transcription von Amazon Chime Chime-SDK verwendenaus.

Der Ordner enthält alle teilweisen und vollständigen Transkriptionsnachrichten, und jede Nachricht ist ein JSON-Objekt. Dateinamen enthalten den <yyyy-mm-dd-hour-min-seconds-milleseconds>Zeitstempel. Beispiele für Transkriptionsdateien können Sie unterBeispiele für die Bereitstellungaus.

Festlegen von Amazon S3 S3-Bucket-Berechtigungen

Wenn Sie keinen Amazon S3 S3-Bucket erstellt haben, stellen Sie sicher, dass Sie Ihren in dem Konto und in der Region erstellen, in der Sie Meetings veranstalten. Stellen Sie außerdem sicher, dass Sie dem Service angemessene Berechtigungen erteilen. Weitere Informationen zum Erstellen eines Amazon S3 S3-Buckets finden Sie unter.Erstellung eines Amazon S3-Bucketsaus.

Verketten von Datenströmen

In diesem Beispiel wird ffmpeg verwendet, um Video- oder Audiodateien in einer einzigen MP4-Datei zu verketten. Erstellen Sie zunächst eine Datei filelist.txt, die alle Eingabedateien enthält. Verwenden Sie das folgende Format:

file 'input1.mp4' file 'input2.mp4' file 'input3.mp4'

Verwenden Sie als Nächstes diesen Befehl, um die Eingabedatei zu verketten:

ffmpeg -f concat -i filelist.txt -c copy output.mp4

Parsing-Transkripte

Verwenden Sie den folgenden Befehl, um Transkriptionsinhalte aus einer Transkriptionsnachricht zu analysieren. Der Befehl analysiert vollständige Sätze aus den Dateien transcript-message.txt.

with open('transcript-message.txt') as f: for line in f: result_json = json.loads(line)["transcript"]["results"][0] if result_json['isPartial'] == False: print(result_json["alternatives"][0]["transcript"])