Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Utilizzo del rilevamento vocale tossico
Utilizzo del rilevamento vocale tossico in una trascrizione in batch
Per utilizzare il rilevamento vocale tossico con una trascrizione in batch, consulta i seguenti esempi:
-
Accedere alla AWS Management Console
. -
Nel riquadro di navigazione, scegliLavori di trascrizione, quindi selezionaCrea lavoro(in alto a destra). Questo apre ilSpecifica i dettagli del lavoropagina.
-
SulSpecifica i dettagli del lavoropagina, puoi anche abilitare la redazione delle PII, se lo desideri. Tieni presente che le altre opzioni elencate non sono supportate dal rilevamento della tossicità. Selezionare Next (Successivo). Questo ti porta alConfigurazione del lavoro - opzionalepagina. NelImpostazioni audiopannello, selezionaRilevazione della tossicità.
-
SelezionaCrea lavoroper eseguire il tuo lavoro di trascrizione.
-
Una volta completato il lavoro di trascrizione, puoi scaricare la trascrizione dalScaricamenu a discesa nella pagina dei dettagli del lavoro di trascrizione.
Questo esempio utilizzastart-transcription-jobToxicityDetection
parametro. Per ulteriori informazioni, consultare StartTranscriptionJob
e ToxicityDetection
.
aws transcribe start-transcription-job \ --region
us-west-2
\ --transcription-job-namemy-first-transcription-job
\ --media MediaFileUri=s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac
\ --output-bucket-nameDOC-EXAMPLE-BUCKET
\ --output-keymy-output-files/
\ --language-code en-US \ --toxicity-detection ToxicityCategories=ALL
Ecco un altro esempio che utilizzastart-transcription-job
aws transcribe start-transcription-job \ --region
us-west-2
\ --cli-input-jsonfile://filepath/my-first-toxicity-job.json
Il fascicolomy-first-toxicity-job.jsoncontiene il seguente corpo della richiesta.
{ "TranscriptionJobName": "
my-first-transcription-job
", "Media": { "MediaFileUri": "s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac
" }, "OutputBucketName": "DOC-EXAMPLE-BUCKET
", "OutputKey": "my-output-files/
", "LanguageCode": "en-US", "ToxicityDetection": [ { "ToxicityCategories": [ "ALL" ] } ] }
Questo esempio utilizzaAWS SDK for Python (Boto3)per abilitareToxicityDetection
perstart_trascrizione_jobStartTranscriptionJob
e ToxicityDetection
.
Per ulteriori esempi utilizzandoAWSGli SDK, inclusi esempi relativi a funzionalità specifiche, scenari e cross-service, fanno riferimento aEsempi di codice per Amazon Transcribe tramite SDK AWScapitolo.
from __future__ import print_function import time import boto3 transcribe = boto3.client('transcribe', '
us-west-2
') job_name = "my-first-transcription-job
" job_uri = "s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac
" transcribe.start_transcription_job( TranscriptionJobName = job_name, Media = { 'MediaFileUri': job_uri }, OutputBucketName = 'DOC-EXAMPLE-BUCKET
', OutputKey = 'my-output-files/
', LanguageCode = 'en-US', ToxicityDetection = [ { 'ToxicityCategories': ['ALL'] } ] ) while True: status = transcribe.get_transcription_job(TranscriptionJobName = job_name) if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']: break print("Not ready yet...") time.sleep(5) print(status)
Output di esempio
I discorsi tossici vengono etichettati e classificati nell'output della trascrizione. A ogni istanza di linguaggio tossico viene classificato e assegnato un punteggio di confidenza (un valore compreso tra 0 e 1). Un valore di confidenza maggiore indica una maggiore probabilità che il contenuto sia un linguaggio tossico all'interno della categoria specificata.
Di seguito è riportato un esempio di output in formato JSON che mostra un linguaggio tossico classificato con punteggi di confidenza associati.
{ "jobName": "
my-toxicity-job
", "accountId": "111122223333
", "results": { "transcripts": [...], "items":[...], "toxicity_detection": [ { "text": "What the * are you doing man? That's why I didn't want to play with your * . man it was a no, no I'm not calming down * man. I well I spent I spent too much * money on this game.", "toxicity": 0.7638, "categories": { "profanity": 0.9913, "hate_speech": 0.0382, "sexual": 0.0016, "insult": 0.6572, "violence_or_threat": 0.0024, "graphic": 0.0013, "harassment_or_abuse": 0.0249 }, "start_time": 8.92, "end_time": 21.45 }, Items removed for brevity { "text": "What? Who? What the * did you just say to me? What's your address? What is your * address? I will pull up right now on your * * man. Take your * back to , tired of this **.", "toxicity": 0.9816, "categories": { "profanity": 0.9865, "hate_speech": 0.9123, "sexual": 0.0037, "insult": 0.5447, "violence_or_threat": 0.5078, "graphic": 0.0037, "harassment_or_abuse": 0.0613 }, "start_time": 43.459, "end_time": 54.639 }, ] }, ... "status": "COMPLETED" }