PUBLICADO EM 11 de ago de 2020
COMPARTILHAR COM:

Facebook removeu 22,5 milhões de posts de discurso de ódio entre abril e junho

Foto: Bhupinder Nayyar

O Facebook convidará especialistas para realizar uma auditoria independente de seu relatório trimestral sobre as métricas usadas para remover conteúdo de sua plataforma, afirmou Guy Rosen, vice-presidente de integridade do Facebook, nesta terça-feira (11), após a divulgação do último Relatório de Aplicação dos Padrões da Comunidade do Facebook.

Introduzido em 2018, o relatório fornece detalhes sobre o conteúdo removido em seus aplicativos por violações de políticas, incluindo violência, suicídio e discurso de ódio.

O relatório mostra também que a rede removeu, no período, 22,5 milhões de posts de discurso de ódio, mais do que o dobro do número removido durante os primeiros três meses do ano, e 1,5 bilhão de contas falsas no segundo trimestre. Segundo a empresa, a taxa de detecção de publicações do tipo aumentou de 89% no primeiro trimestre para 95% neste segundo trimestre, em função de melhorias na identificação por inteligência artificial. A rede social vem sendo pressionada a mudar sua política de remoção de conteúdos, o que resultou recentemente no boicote publicitário à sua plataforma. A empresa disse que dependeu mais da tecnologia de automação para revisar o conteúdo entre abril e junho, já que tinha menos moderadores nos escritórios devido à pandemia da covid-19.

Rosen disse que a companhia também removeu 8,7 milhões de conteúdos relacionados à terrorismo neste último trimestre. Além da detecção dos conteúdos em inglês, a rede social expandiu a tecnologia para espanhol, árabe e indonésio — não há informações sobre o português.

Quanto ao Instagram, que pertence ao Facebook, a empresa afirma que removeu 3,3 milhões de conteúdos de discurso de ódio no segundo trimestre — no primeiro trimestre, foram 808,9 mil.

A rede social disse que dependeu mais da tecnologia de automação para revisar o conteúdo entre abril e junho, já que tinha menos moderadores nos escritórios devido à pandemia de covid-19. Uma das áreas afetadas foi a remoção de conteúdos relacionados a suicídio, automutilação e exploração infantil. “Dependemos muito de pessoas para analisar esse tipo de conteúdo. Com menos revisores de conteúdo, removemos um número menor de conteúdos relacionados a automutilação e suicídio no Facebook e no Instagram”, afirmou Rosen, no comunicado.

Com informações de Agência Brasil e Estadão

ENVIE SEUS COMENTÁRIOS

QUENTINHAS