Utilizzo del rilevamento vocale tossico - Amazon Transcribe

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Utilizzo del rilevamento vocale tossico

Utilizzo del rilevamento vocale tossico in una trascrizione in batch

Per utilizzare il rilevamento vocale tossico con una trascrizione in batch, consulta i seguenti esempi:

  1. Accedere alla AWS Management Console.

  2. Nel riquadro di navigazione, scegliLavori di trascrizione, quindi selezionaCrea lavoro(in alto a destra). Questo apre ilSpecifica i dettagli del lavoropagina.

    Amazon Transcribeschermata della console: la pagina «specifica i dettagli del lavoro».
  3. SulSpecifica i dettagli del lavoropagina, puoi anche abilitare la redazione delle PII, se lo desideri. Tieni presente che le altre opzioni elencate non sono supportate dal rilevamento della tossicità. Selezionare Next (Successivo). Questo ti porta alConfigurazione del lavoro - opzionalepagina. NelImpostazioni audiopannello, selezionaRilevazione della tossicità.

    Amazon Transcribeschermata della console: la pagina 'configura lavoro'.
  4. SelezionaCrea lavoroper eseguire il tuo lavoro di trascrizione.

  5. Una volta completato il lavoro di trascrizione, puoi scaricare la trascrizione dalScaricamenu a discesa nella pagina dei dettagli del lavoro di trascrizione.

Questo esempio utilizzastart-transcription-jobcomando eToxicityDetectionparametro. Per ulteriori informazioni, consultare StartTranscriptionJob e ToxicityDetection.

aws transcribe start-transcription-job \ --region us-west-2 \ --transcription-job-name my-first-transcription-job \ --media MediaFileUri=s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac \ --output-bucket-name DOC-EXAMPLE-BUCKET \ --output-key my-output-files/ \ --language-code en-US \ --toxicity-detection ToxicityCategories=ALL

Ecco un altro esempio che utilizzastart-transcription-jobcomando e un corpo di richiesta che include il rilevamento della tossicità.

aws transcribe start-transcription-job \ --region us-west-2 \ --cli-input-json file://filepath/my-first-toxicity-job.json

Il fascicolomy-first-toxicity-job.jsoncontiene il seguente corpo della richiesta.

{ "TranscriptionJobName": "my-first-transcription-job", "Media": { "MediaFileUri": "s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac" }, "OutputBucketName": "DOC-EXAMPLE-BUCKET", "OutputKey": "my-output-files/", "LanguageCode": "en-US", "ToxicityDetection": [ { "ToxicityCategories": [ "ALL" ] } ] }

Questo esempio utilizzaAWS SDK for Python (Boto3)per abilitareToxicityDetectionperstart_trascrizione_jobmetodo. Per ulteriori informazioni, consultare StartTranscriptionJob e ToxicityDetection.

Per ulteriori esempi utilizzandoAWSGli SDK, inclusi esempi relativi a funzionalità specifiche, scenari e cross-service, fanno riferimento aEsempi di codice per Amazon Transcribe tramite SDK AWScapitolo.

from __future__ import print_function import time import boto3 transcribe = boto3.client('transcribe', 'us-west-2') job_name = "my-first-transcription-job" job_uri = "s3://DOC-EXAMPLE-BUCKET/my-input-files/my-media-file.flac" transcribe.start_transcription_job( TranscriptionJobName = job_name, Media = { 'MediaFileUri': job_uri }, OutputBucketName = 'DOC-EXAMPLE-BUCKET', OutputKey = 'my-output-files/', LanguageCode = 'en-US', ToxicityDetection = [ { 'ToxicityCategories': ['ALL'] } ] ) while True: status = transcribe.get_transcription_job(TranscriptionJobName = job_name) if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']: break print("Not ready yet...") time.sleep(5) print(status)

Output di esempio

I discorsi tossici vengono etichettati e classificati nell'output della trascrizione. A ogni istanza di linguaggio tossico viene classificato e assegnato un punteggio di confidenza (un valore compreso tra 0 e 1). Un valore di confidenza maggiore indica una maggiore probabilità che il contenuto sia un linguaggio tossico all'interno della categoria specificata.

Di seguito è riportato un esempio di output in formato JSON che mostra un linguaggio tossico classificato con punteggi di confidenza associati.

{ "jobName": "my-toxicity-job", "accountId": "111122223333", "results": { "transcripts": [...], "items":[...], "toxicity_detection": [ { "text": "What the * are you doing man? That's why I didn't want to play with your * . man it was a no, no I'm not calming down * man. I well I spent I spent too much * money on this game.", "toxicity": 0.7638, "categories": { "profanity": 0.9913, "hate_speech": 0.0382, "sexual": 0.0016, "insult": 0.6572, "violence_or_threat": 0.0024, "graphic": 0.0013, "harassment_or_abuse": 0.0249 }, "start_time": 8.92, "end_time": 21.45 }, Items removed for brevity { "text": "What? Who? What the * did you just say to me? What's your address? What is your * address? I will pull up right now on your * * man. Take your * back to , tired of this **.", "toxicity": 0.9816, "categories": { "profanity": 0.9865, "hate_speech": 0.9123, "sexual": 0.0037, "insult": 0.5447, "violence_or_threat": 0.5078, "graphic": 0.0037, "harassment_or_abuse": 0.0613 }, "start_time": 43.459, "end_time": 54.639 }, ] }, ... "status": "COMPLETED" }