Rilevamento di un linguaggio tossico - Amazon Transcribe

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Rilevamento di un linguaggio tossico

Il rilevamento vocale tossico è progettato per aiutare a moderare le piattaforme di social media che coinvolgonopeer-to-peerdialoghi, come giochi online e piattaforme di social chat. L'uso di discorsi tossici può essere profondamente dannoso per individui, gruppi di pari e comunità. La segnalazione di un linguaggio dannoso aiuta le organizzazioni a mantenere conversazioni civili e a mantenere un ambiente online sicuro e inclusivo in cui gli utenti possano creare, condividere e partecipare liberamente.

Amazon TranscribeIl rilevamento della tossicità sfrutta segnali audio e testuali per identificare e classificare i contenuti tossici basati sulla voce in sette categorie, tra cui molestie sessuali, incitamento all'odio, minaccia, abuso, parolacce, insulti e immagini. Oltre al testo,Amazon TranscribeIl rilevamento della tossicità utilizza segnali vocali, come toni e intonazione, per concentrarsi sull'intento tossico del linguaggio. Si tratta di un miglioramento rispetto ai sistemi standard di moderazione dei contenuti, progettati per concentrarsi solo su termini specifici, senza tenere conto delle intenzioni.

Amazon Transcribecontrassegna e classifica i discorsi tossici, riducendo al minimo il volume di dati che devono essere elaborati manualmente. Ciò consente ai moderatori dei contenuti di gestire in modo rapido ed efficiente il discorso sulle loro piattaforme.

Le categorie di linguaggio tossico includono:

  • Parolacce: Discorso che contiene parole, frasi o acronimi maleducati, volgari o offensivi.

  • Incitamento all'odio: Discorso che critica, insulta, denuncia o disumanizza una persona o un gruppo sulla base di un'identità (come razza, etnia, genere, religione, orientamento sessuale, abilità e origine nazionale).

  • Sessuale: Discorso che indica interesse, attività o eccitazione sessuale utilizzando riferimenti diretti o indiretti a parti del corpo, tratti fisici o sesso.

  • Insulti: Discorso che include un linguaggio umiliante, umiliante, deriso, offensivo o sminuente. Questo tipo di linguaggio è anche etichettato come bullismo.

  • Violenza o minaccia: Discorso che include minacce che cercano di infliggere dolore, lesioni o ostilità verso una persona o un gruppo.

  • Grafica: Discorso che utilizza immagini visivamente descrittive e sgradevolmente vivide. Questo tipo di linguaggio è spesso intenzionalmente prolisso per amplificare il disagio del destinatario.

  • Molestie o offese: Discorso destinato a influire sul benessere psicologico del destinatario, compresi termini umilianti e oggettivanti. Questo tipo di linguaggio è anche etichettato come molestia.

Il rilevamento della tossicità analizza i segmenti del linguaggio (il discorso tra pause naturali) e assegna punteggi di confidenza a questi segmenti. I punteggi di confidenza sono valori compresi tra 0 e 1. Un punteggio di confidenza più elevato indica una maggiore probabilità che il contenuto sia un linguaggio tossico nella categoria associata. Puoi utilizzare questi punteggi di affidabilità per impostare la soglia di rilevamento della tossicità appropriata per il tuo caso d'uso.

Nota

Il rilevamento della tossicità è disponibile solo per le trascrizioni in batch in inglese americano(en-US).

Visualizzaesempio di outputin formato JSON.