Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Rilevamento del linguaggio tossico

Modalità Focus
Rilevamento del linguaggio tossico - Amazon Transcribe

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Il rilevamento del linguaggio tossico è progettato per aiutare a moderare le piattaforme di social media che coinvolgono peer-to-peer il dialogo, come le piattaforme di gioco online e le piattaforme di chat sociale. L'uso di linguaggio tossico può essere profondamente dannoso per individui, gruppi di pari e comunità. La segnalazione di un linguaggio pericoloso aiuta le organizzazioni a mantenere le conversazioni civili e a mantenere un ambiente online sicuro e inclusivo in cui gli utenti possono creare, condividere e partecipare liberamente.

Amazon Transcribe Toxicity Detection sfrutta segnali audio e testuali per identificare e classificare i contenuti tossici basati sulla voce in sette categorie, tra cui molestie sessuali, incitamento all'odio, minacce, abusi, parolacce, insulti e immagini grafiche. Oltre al testo, Il rilevamento della tossicità Amazon Transcribe utilizza segnali vocali, come toni e intonazione, per scovare l'intento tossico del parlato. Si tratta di un miglioramento rispetto ai sistemi standard di moderazione dei contenuti, progettati per concentrarsi solo su termini specifici, senza tenere conto dell'intenzione.

Amazon Transcribe contrassegna e classifica i discorsi tossici, riducendo al minimo il volume di dati che devono essere elaborati manualmente. Ciò consente ai moderatori di contenuti di gestire in modo rapido ed efficiente le conversazioni sulle loro piattaforme.

Le categorie di linguaggio tossico includono:

  • Volgarità: linguaggio che contiene parole, frasi o acronimi maleducati, volgari o offensivi.

  • Incitamento all'odio: linguaggio che critica, insulta, denuncia o disumanizza una persona o un gruppo sulla base di un'identità (come razza, etnia, genere, religione, orientamento sessuale, abilità e origine nazionale).

  • Sessuale: linguaggio che indica interesse, attività o eccitazione sessuale utilizzando riferimenti diretti o indiretti a parti del corpo, tratti fisici o sesso.

  • Insulti: linguaggio che include parole umilianti, derisorie, offensive o sminuenti. Questo tipo di linguaggio è anche etichettato come bullismo.

  • Violenza o minaccia: linguaggio che include minacce volte a infliggere dolore, lesioni o ostilità verso una persona o un gruppo.

  • Discorso grafico: linguaggio che utilizza un immaginario visivamente descrittivo e sgradevolmente vivido. Questo tipo di linguaggio è spesso intenzionalmente prolisso per amplificare il disagio del destinatario.

  • Molestie o abusi: linguaggio inteso a influire sul benessere psicologico del destinatario, compresi termini umilianti e oggettivanti. Questo tipo di linguaggio è anche etichettato come molestia.

Il rilevamento della tossicità analizza i segmenti di conversazione (il discorso tra le pause naturali) e assegna punteggi di affidabilità a tali segmenti. I punteggi di affidabilità sono valori compresi tra 0 e 1. Un punteggio di affidabilità più elevato indica una maggiore probabilità che il contenuto contenga linguaggio tossico all'interno della categoria associata. È possibile utilizzare questi punteggi di affidabilità per impostare la soglia di rilevamento della tossicità appropriata per il caso d'uso.

Nota

Il rilevamento della tossicità è disponibile solo per le trascrizioni in batch in inglese americano (en-US).

Consulta l'esempio di output in formato JSON.

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.