Facebook diz que coronavírus tornou mais difícil moderar conteúdo

O Facebook disse na terça-feira que o coronavírus afetou quantas pessoas poderiam rever postagens na rede social por violações de regras contra conteúdo que promove o suicídio ou a auto-lesão. A pandemia COVID-19 também impactou quantos trabalhadores poderiam monitorar o Instagram de propriedade do Facebook para nudez infantil e exploração sexual.

De abril a junho, o Facebook disse em um post no blogque tomou medidas sobre menos peças desse tipo de conteúdo ofensivo porque enviou seus revisores de conteúdo para casa. Os usuários também nem sempre poderiam recorrer de uma decisão de moderação de conteúdo.

O Facebook conta com uma mistura de revisores humanos e tecnologia para sinalizar conteúdo ofensivo. Mas alguns conteúdos são mais complicados a moderados, incluindo postagens relacionadas ao suicídio e exploração sexual, então o Facebook depende mais das pessoas para essas decisões. A empresa enfrentou críticas e uma ação judicial de moderadores de conteúdo que alegaram sofrer de sintomas de transtorno de estresse pós-traumático depois de revisar repetidamente imagens violentas.

Guy Rosen, que supervisiona o trabalho do Facebook sobre segurança e integridade, disse durante uma chamada à imprensa que o conteúdo sobre suicídio e nudez infantil não pode ser revisto em casa porque é visualmente gráfico. Isso torna muito desafiador para os revisores de conteúdo, porque quando eles estão trabalhando em casa, os membros da família podem estar ao seu redor.

“Queremos garantir que seja revisado em um ambiente mais controlado, e é por isso que começamos a trazer um pequeno número de revisores para onde é seguro voltar ao escritório”, disse ele.

O Facebook também está usando inteligência artificial para classificar o quão prejudicial o conteúdo pode ser e sinalizar quais postagens as pessoas precisam rever primeiro. A empresa tem priorizado a revisão de vídeos ao vivo, mas se um usuário implicasse em um post regular que iria cometer suicídio, isso também seria classificado muito alto, disse Rosen.

O Facebook disse que não foi capaz de determinar o quão prevalente o conteúdo violento e gráfico, e nudez adulta e atividade sexual, estavam em suas plataformas no segundo trimestre, devido ao impacto do coronavírus. O Facebook publica rotineiramente um relatório trimestral sobre como aplica suas regras.

O Facebook também está sob fogo por supostamente não fazer o suficiente para combater o discurso de ódio, uma questão que motivou um boicote a anúncios em julho. Na segunda-feira, a NBC News informou que uma investigação interna descobriu que havia milhares de grupos e páginas no Facebook que apoiavam uma teoria da conspiração chamada QAnon, que alega que há um complô de “estado profundo” contra o presidente Donald Trump e seus apoiadores.

Monika Bickert, que supervisiona a política de conteúdo do Facebook, disse que o Facebook removeu grupos e páginas do QAnon por usar contas falsas ou por conteúdo que viole as regras da rede social.

“Continuaremos procurando, você sabe, outras maneiras de garantir que estamos abordando esse conteúdo adequadamente”, disse Bickert.

O Facebook disse que, no segundo trimestre, entrou em ação em 22,5 milhões de peças de conteúdo por violar suas regras contra o discurso de ódio, acima dos 9,6 milhões de peças de conteúdo no primeiro trimestre. O Facebook atribuiu o salto ao uso de tecnologia automatizada, o que ajudou a empresa a detectar proativamente o discurso de ódio. A taxa de detecção proativa de discursos de ódio no Facebook aumentou de 89% para 95% do primeiro para o segundo trimestre, disse a empresa.

A taxa de detecção proativa de discursos de ódio no Instagram aumentou de 45% para 84% durante o mesmo período, disse o Facebook. O Instagram tomou medidas contra 808.900 peças de conteúdo por violar suas regras de discurso de ódio no primeiro trimestre, e esse número saltou para 3,3 milhões no segundo trimestre.

O Facebook também entrou com ação no segundo trimestre sobre 8,7 milhões de peças de conteúdo por violar suas regras contra a promoção do terrorismo, contra 6,3 milhões no primeiro trimestre.

A empresa disse que os auditores independentes revisarão as métricas que o Facebook usa para impor os padrões da comunidade. A empresa espera que a auditoria seja realizada em 2021.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *