Google usa Machine Learning contra comentários abusivos na Internet: A Internet é um lugar complicado para ter uma conversa. Os abusos online já fizeram com que muita gente abandonasse as redes sociais, mal equipadas para lidar com a prática, e alguns sites de notícias desabilitassem suas seções de comentários.

É por isso que o Google e a Jigsaw (incubada da Alphabet) estão trabalhando em um novo projeto chamado Perspective, que usa Machine Learning para tentar identificar comentários ofensivos – e reduzi-los. O treinamento do sistema foi feito com base em centenas de milhares de mensagens ofensivas escolhidas por pessoas reais.

Liberada nesta sexta-feira, 24/2, a API do Perspective fornecerá aos desenvolvedores uma pontuação de quão provável é que os usuários percebam um comentário como ofensivos ou “tóxicos”.

Em troca, essa pontuação poderia ser usada para desenvolver recursos como filtragem automática de posts ou fornecer feedback para os usuários sobre o que estão escrevendo antes que eles enviem para publicação. Desde ontem, 23/2, os desenvolvedores podem solicitar acesso à API para uso em projetos que estejam trabalhando, e a Jigsaw irá aprová-los com o tempo.

Muitos sites de notícias não possuem disposição ou tempo para moderar comentários agressivos em suas reportagens e, por isso, decidiram desabilitá-los completamente e liberar a discussão nas redes sociais. O The New York Times, por exemplo, que ajudou no desenvolvimento do Perspective, abre os comentários em apenas 10% das suas reportagens, por conta do esforço necessário para moderá-los manualmente.

O Google também tem um interesse velado em um filtro melhor contra abusos. Suas seções de comentários no YouTube podem ficar cheias de ódio, deixando os criadores de conteúdos com mais uma tarefa pesada nas mãos. Usar a API do Perspective para filtrar os comentários pode ajudar a aliviar essa carga extra.

A interpretação dos comentários pelo Perspective ainda está longe de ser perfeita, no entanto. Uma série de afirmações profanas feita com a intenção de aprovar algo foi marcada como provavelmente tóxica. Por exemplo, o sistema classificou a frase “This is some kick-ass music right here” como 85% similar a comentários que outras pessoas afirmaram ser ofensivos.

A Jigsaw, por sua vez, reconhece os potenciais problemas. O site do Perspective dá aos usuários uma maneira de testar comentários e dizer se eles são ofensivos ou não. A implicação aí é que a equipe da empresa vai levar esse feedback em conta em interações posteriores para reconhecimento de abusos.

“Ainda estamos no começo e vamos entender muita coisa errada”, afirmou a empresa em seu site.

Por enquanto, o Perspective só está disponível em inglês, apesar de aparentemente conseguir compreender alguns comentários ofensivos em outros idiomas, dependendo do contexto.

“Google usa Machine Learning contra comentários abusivos na Internet”

FONTE: CIO


Conteúdos que você pode gostar também:

Saiba algumas dicas para gerenciar a infraestrutura de TI

A infraestrutura de TI, cada vez mais tem servido de base para o modelo de negócio da maior parte das empresas. Quanto…

Saiba quais são os algoritmos de aprendizagem usados na IA

Saiba quais são os algoritmos de aprendizagem usados na IA: A definição exata do conceito de Inteligência Artificial…

Saiba como aumentar a performance de aplicação

No universo da web, ou diante de uma proposta de desenvolvimento de software, é comum se deparar com a seguinte…