Detectando fala tóxica - Amazon Transcribe

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Detectando fala tóxica

A detecção de fala tóxica foi projetada para ajudar a moderar plataformas de mídia social que envolvempeer-to-peerdiálogo, como jogos online e plataformas de bate-papo social. O uso de fala tóxica pode ser profundamente prejudicial para indivíduos, grupos de colegas e comunidades. Sinalizar linguagem prejudicial ajuda as organizações a manter as conversas civilizadas e a manter um ambiente on-line seguro e inclusivo para que os usuários criem, compartilhem e participem livremente.

Amazon TranscribeA detecção de toxicidade utiliza sinais baseados em áudio e texto para identificar e classificar conteúdo tóxico baseado em voz em sete categorias, incluindo assédio sexual, discurso de ódio, ameaça, abuso, palavrões, insultos e gráficos. Além do texto,Amazon TranscribeA detecção de toxicidade usa sinais de fala, como tons e tons, para aprimorar a intenção tóxica da fala. Essa é uma melhoria em relação aos sistemas padrão de moderação de conteúdo, projetados para se concentrar apenas em termos específicos, sem levar em conta a intenção.

Amazon Transcribesinaliza e categoriza a fala tóxica, o que minimiza o volume de dados que devem ser processados manualmente. Isso permite que os moderadores de conteúdo gerenciem com rapidez e eficiência o discurso em suas plataformas.

As categorias de fala tóxica incluem:

  • Profanidade: Discurso que contém palavras, frases ou acrônimos indelicados, vulgares ou ofensivos.

  • Discurso de ódio: Discurso que critica, insulta, denuncia ou desumaniza uma pessoa ou grupo com base em uma identidade (como raça, etnia, gênero, religião, orientação sexual, habilidade e origem nacional).

  • Sexual: Discurso que indica interesse sexual, atividade ou excitação usando referências diretas ou indiretas a partes do corpo, características físicas ou sexo.

  • Insultos: Discurso que inclui linguagem humilhante, humilhante, zombeteira, insultante ou depreciativa. Esse tipo de linguagem também é rotulado como bullying.

  • Violência ou ameaça: Discurso que inclui ameaças que buscam infligir dor, ferimento ou hostilidade a uma pessoa ou grupo.

  • Gráfico: Fala que usa imagens visualmente descritivas e desagradavelmente vívidas. Esse tipo de linguagem geralmente é intencionalmente prolixo para ampliar o desconforto do destinatário.

  • Assédio ou abuso: Discurso destinado a afetar o bem-estar psicológico do destinatário, incluindo termos humilhantes e objetivadores. Esse tipo de linguagem também é rotulado como assédio.

A detecção de toxicidade analisa os segmentos da fala (a fala entre pausas naturais) e atribui pontuações de confiança a esses segmentos. Os escores de confiança são valores entre 0 e 1. Uma pontuação de confiança maior indica uma maior probabilidade de que o conteúdo seja uma fala tóxica na categoria associada. Você pode usar essas pontuações de confiança para definir o limite apropriado de detecção de toxicidade para seu caso de uso.

nota

A detecção de toxicidade só está disponível para transcrições em lote em inglês dos EUA(en-US).

Visualizarexemplo de saídano formato JSON.