Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Menggunakan deteksi bicara beracun
Menggunakan deteksi ucapan beracun dalam transkripsi batch
Untuk menggunakan deteksi ucapan beracun dengan transkripsi batch, lihat contoh berikut ini:
-
Masuk ke AWS Management Console
. -
Di panel navigasi, pilihLowongan kerja Transcription, lalu pilihBuat pekerjaan(kanan atas). Ini membukaTentukan detail pekerjaanhalaman.
-
PadaTentukan detail pekerjaanHalaman, Anda juga dapat mengaktifkan redaksi PII jika Anda mau. Perhatikan bahwa opsi lain yang tercantum tidak didukung dengan deteksi Toksisitas. Pilih Selanjutnya. Ini akan membawa Anda keKonfigurasi pekerjaan - opsionalhalaman. DalamPengaturan audiopanel, pilihDeteksi toksisitas.
-
PilihBuat pekerjaanuntuk menjalankan pekerjaan transkripsi Anda.
-
Setelah pekerjaan transkripsi Anda selesai, Anda dapat mengunduh transkrip Anda dariUnduhmenu drop-down di halaman detail pekerjaan transkripsi.
Contoh ini menggunakanstart-transcription-jobToxicityDetection
parameter. Untuk informasi selengkapnya, lihat StartTranscriptionJob
dan ToxicityDetection
.
aws transcribe start-transcription-job \ --region
us-west-2
\ --transcription-job-namemy-first-transcription-job
\ --media MediaFileUri=s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac
\ --output-bucket-nameDOC-EXAMPLE-BUCKET
\ --output-keymy-output-files/
\ --language-code en-US \ --toxicity-detection ToxicityCategories=ALL
Berikut contoh lain menggunakanstart-transcription-job
aws transcribe start-transcription-job \ --region
us-west-2
\ --cli-input-jsonfile://filepath/my-first-toxicity-job.json
Berkasmy-first-toxicity-job.jsonberisi badan permintaan berikut.
{ "TranscriptionJobName": "
my-first-transcription-job
", "Media": { "MediaFileUri": "s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac
" }, "OutputBucketName": "DOC-EXAMPLE-BUCKET
", "OutputKey": "my-output-files/
", "LanguageCode": "en-US", "ToxicityDetection": [ { "ToxicityCategories": [ "ALL" ] } ] }
Contoh ini menggunakanAWS SDK for Python (Boto3)untuk mengaktifkanToxicityDetection
untukstart_transcription_jobStartTranscriptionJob
dan ToxicityDetection
.
Untuk contoh tambahan menggunakanAWSSDK, termasuk contoh spesifik-fitur, skenario, dan lintas-layanan, merujuk padaContoh kode untuk Amazon Transcribe menggunakan SDK AWSBab.
from __future__ import print_function import time import boto3 transcribe = boto3.client('transcribe', '
us-west-2
') job_name = "my-first-transcription-job
" job_uri = "s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac
" transcribe.start_transcription_job( TranscriptionJobName = job_name, Media = { 'MediaFileUri': job_uri }, OutputBucketName = 'DOC-EXAMPLE-BUCKET
', OutputKey = 'my-output-files/
', LanguageCode = 'en-US', ToxicityDetection = [ { 'ToxicityCategories': ['ALL'] } ] ) while True: status = transcribe.get_transcription_job(TranscriptionJobName = job_name) if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']: break print("Not ready yet...") time.sleep(5) print(status)
Contoh keluaran
Pidato beracun ditandai dan dikategorikan dalam output transkripsi Anda. Setiap contoh ucapan beracun dikategorikan dan diberi skor kepercayaan (nilai antara 0 dan 1). Nilai kepercayaan yang lebih besar menunjukkan kemungkinan lebih besar bahwa konten tersebut adalah ucapan beracun dalam kategori yang ditentukan.
Berikut ini adalah contoh keluaran dalam format JSON yang menunjukkan pidato beracun yang dikategorikan dengan skor kepercayaan terkait.
{ "jobName": "
my-toxicity-job
", "accountId": "111122223333
", "results": { "transcripts": [...], "items":[...], "toxicity_detection": [ { "text": "What the * are you doing man? That's why I didn't want to play with your * . man it was a no, no I'm not calming down * man. I well I spent I spent too much * money on this game.", "toxicity": 0.7638, "categories": { "profanity": 0.9913, "hate_speech": 0.0382, "sexual": 0.0016, "insult": 0.6572, "violence_or_threat": 0.0024, "graphic": 0.0013, "harassment_or_abuse": 0.0249 }, "start_time": 8.92, "end_time": 21.45 }, Items removed for brevity { "text": "What? Who? What the * did you just say to me? What's your address? What is your * address? I will pull up right now on your * * man. Take your * back to , tired of this **.", "toxicity": 0.9816, "categories": { "profanity": 0.9865, "hate_speech": 0.9123, "sexual": 0.0037, "insult": 0.5447, "violence_or_threat": 0.5078, "graphic": 0.0037, "harassment_or_abuse": 0.0613 }, "start_time": 43.459, "end_time": 54.639 }, ] }, ... "status": "COMPLETED" }