Menggunakan deteksi bicara beracun - Amazon Transcribe

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Menggunakan deteksi bicara beracun

Menggunakan deteksi ucapan beracun dalam transkripsi batch

Untuk menggunakan deteksi ucapan beracun dengan transkripsi batch, lihat contoh berikut ini:

  1. Masuk ke AWS Management Console.

  2. Di panel navigasi, pilihLowongan kerja Transcription, lalu pilihBuat pekerjaan(kanan atas). Ini membukaTentukan detail pekerjaanhalaman.

    Amazon Transcribescreenshot konsol: halaman 'tentukan detail pekerjaan'.
  3. PadaTentukan detail pekerjaanHalaman, Anda juga dapat mengaktifkan redaksi PII jika Anda mau. Perhatikan bahwa opsi lain yang tercantum tidak didukung dengan deteksi Toksisitas. Pilih Selanjutnya. Ini akan membawa Anda keKonfigurasi pekerjaan - opsionalhalaman. DalamPengaturan audiopanel, pilihDeteksi toksisitas.

    Amazon Transcribekonsol screenshot: 'mengkonfigurasi pekerjaan' halaman.
  4. PilihBuat pekerjaanuntuk menjalankan pekerjaan transkripsi Anda.

  5. Setelah pekerjaan transkripsi Anda selesai, Anda dapat mengunduh transkrip Anda dariUnduhmenu drop-down di halaman detail pekerjaan transkripsi.

Contoh ini menggunakanstart-transcription-jobperintah danToxicityDetectionparameter. Untuk informasi selengkapnya, lihat StartTranscriptionJob dan ToxicityDetection.

aws transcribe start-transcription-job \ --region us-west-2 \ --transcription-job-name my-first-transcription-job \ --media MediaFileUri=s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac \ --output-bucket-name DOC-EXAMPLE-BUCKET \ --output-key my-output-files/ \ --language-code en-US \ --toxicity-detection ToxicityCategories=ALL

Berikut contoh lain menggunakanstart-transcription-jobperintah, dan badan permintaan yang mencakup deteksi toksisitas.

aws transcribe start-transcription-job \ --region us-west-2 \ --cli-input-json file://filepath/my-first-toxicity-job.json

Berkasmy-first-toxicity-job.jsonberisi badan permintaan berikut.

{ "TranscriptionJobName": "my-first-transcription-job", "Media": { "MediaFileUri": "s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac" }, "OutputBucketName": "DOC-EXAMPLE-BUCKET", "OutputKey": "my-output-files/", "LanguageCode": "en-US", "ToxicityDetection": [ { "ToxicityCategories": [ "ALL" ] } ] }

Contoh ini menggunakanAWS SDK for Python (Boto3)untuk mengaktifkanToxicityDetectionuntukstart_transcription_jobmetode. Untuk informasi selengkapnya, lihat StartTranscriptionJob dan ToxicityDetection.

Untuk contoh tambahan menggunakanAWSSDK, termasuk contoh spesifik-fitur, skenario, dan lintas-layanan, merujuk padaContoh kode untuk Amazon Transcribe menggunakan SDK AWSBab.

from __future__ import print_function import time import boto3 transcribe = boto3.client('transcribe', 'us-west-2') job_name = "my-first-transcription-job" job_uri = "s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac" transcribe.start_transcription_job( TranscriptionJobName = job_name, Media = { 'MediaFileUri': job_uri }, OutputBucketName = 'DOC-EXAMPLE-BUCKET', OutputKey = 'my-output-files/', LanguageCode = 'en-US', ToxicityDetection = [ { 'ToxicityCategories': ['ALL'] } ] ) while True: status = transcribe.get_transcription_job(TranscriptionJobName = job_name) if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']: break print("Not ready yet...") time.sleep(5) print(status)

Contoh keluaran

Pidato beracun ditandai dan dikategorikan dalam output transkripsi Anda. Setiap contoh ucapan beracun dikategorikan dan diberi skor kepercayaan (nilai antara 0 dan 1). Nilai kepercayaan yang lebih besar menunjukkan kemungkinan lebih besar bahwa konten tersebut adalah ucapan beracun dalam kategori yang ditentukan.

Berikut ini adalah contoh keluaran dalam format JSON yang menunjukkan pidato beracun yang dikategorikan dengan skor kepercayaan terkait.

{ "jobName": "my-toxicity-job", "accountId": "111122223333", "results": { "transcripts": [...], "items":[...], "toxicity_detection": [ { "text": "What the * are you doing man? That's why I didn't want to play with your * . man it was a no, no I'm not calming down * man. I well I spent I spent too much * money on this game.", "toxicity": 0.7638, "categories": { "profanity": 0.9913, "hate_speech": 0.0382, "sexual": 0.0016, "insult": 0.6572, "violence_or_threat": 0.0024, "graphic": 0.0013, "harassment_or_abuse": 0.0249 }, "start_time": 8.92, "end_time": 21.45 }, Items removed for brevity { "text": "What? Who? What the * did you just say to me? What's your address? What is your * address? I will pull up right now on your * * man. Take your * back to , tired of this **.", "toxicity": 0.9816, "categories": { "profanity": 0.9865, "hate_speech": 0.9123, "sexual": 0.0037, "insult": 0.5447, "violence_or_threat": 0.5078, "graphic": 0.0037, "harassment_or_abuse": 0.0613 }, "start_time": 43.459, "end_time": 54.639 }, ] }, ... "status": "COMPLETED" }