O Facebook convidará especialistas externos para auditar de forma independente seu relatório trimestral sobre as métricas usadas para remover conteúdo de sua plataforma, afirmou a rede social nesta terça-feira (11), ao divulgar o sexto relatório.
Introduzido em 2018, o Relatório de Aplicação dos Padrões da Comunidade do Facebook fornece detalhes sobre o conteúdo removido em seus aplicativos por violações de políticas, incluindo violência, suicídio e discurso de ódio.
A empresa disse que dependeu mais da tecnologia de automação para revisar o conteúdo entre abril e junho, já que tinha menos moderadores nos escritórios devido à pandemia da covid-19.
Isso resultou na empresa tomando menos medidas em relação a conteúdo sobre suicídio, automutilação, nudez infantil e exploração sexual em suas plataformas, disse o Facebook em publicação em seu blog.
(Agência Brasil)