Facebook testa ferramentas para combater abuso sexual infantil

O Facebook está testando novas ferramentas destinadas a restringir pesquisas de fotos e vídeos que contenham abuso sexual infantil e impedir o compartilhamento de tais conteúdos.

“Usar nossos aplicativos para prejudicar crianças é abominável e inaceitável”, disse Antigone Davis, que supervisiona os esforços globais de segurança do Facebook, em um post no seu blog oficial.

A mudança ocorre à medida que a rede social enfrenta mais pressão para combater esse problema em meio a seus planos de permitir criptografia padrão para mensagens no Facebook Messenger e noserviço de fotos instagram. A criptografia de ponta a ponta significaria que, exceto o remetente e o destinatário, as mensagens não podiam ser vistas por ninguém, incluindo o Facebook e as autoridades policiais. Os defensores da segurança das crianças levantaram preocupações de que os planos de criptografia do Facebook poderiam dificultar a repressão a predadores infantis.

A primeira ferramenta que o Facebook está testando é um aviso pop-up que aparece se os usuários pesquisarem por um termo que esteja associado ao abuso sexual infantil. O aviso perguntará aos usuários se eles querem continuar, e inclui um link para organizações de desvio de infratores. A nota também diz que o abuso sexual infantil é ilegal e que a visualização dessas imagens pode levar a consequências, incluindo a prisão.

No ano passado, o Facebook disse que analisou o conteúdo de abuso sexual infantil relatado ao Centro Nacional de Crianças Desaparecidas e Exploradas. A empresa constatou que mais de 90% do conteúdo era o mesmo ou semelhante ao conteúdo relatado anteriormente. Cópias de seis vídeos compõem mais da metade do conteúdo exploratório infantil relatado em outubro e novembro de 2020.

“O fato de apenas alguns conteúdos serem responsáveis por muitos relatórios sugere que uma maior compreensão da intenção poderia nos ajudar a evitar essa revitimização”, escreveu Davis no post do blog. A empresa também realizou outra análise, que mostrou que os usuários estavam compartilhando essas imagens por outros motivos além de prejudicar a criança, incluindo “indignação ou mau humor”.

A segunda ferramenta que o Facebook disse que está testando é um alerta que informará os usuários se eles tentarem compartilhar essas imagens prejudiciais. O alerta de segurança informa aos usuários que, se eles compartilharem esse tipo de conteúdo novamente, sua conta poderá ser desativada. A empresa disse que está usando essa ferramenta para ajudar a identificar “sinais comportamentais” de usuários que podem estar em um disco maior de compartilhamento desse conteúdo nocivo. Isso ajudará a empresa a “educá-los sobre por que é prejudicial e incentivá-los a não compartilhá-lo” publicamente ou privadamente, disse Davis.

O Facebook também atualizou suas políticas de segurança infantil e ferramentas de relatórios. A gigante das mídias sociais disse que vai retirar perfis do Facebook, páginas, grupos e contas do Instagram “que se dedicam a compartilhar imagens inocentes de crianças com legendas, hashtags ou comentários contendo sinais inapropriados de afeto ou comentários sobre as crianças retratadas na imagem”. Os usuários do Facebook que relatarem conteúdo também verão uma opção para informar a rede social que a foto ou vídeo “envolve uma criança”, permitindo que a empresa o priorize para revisão.

Durante a pandemia do coronavírus,as imagens de abuso sexual infantil online aumentaram, de acordo com um relatório de janeiro do Business Insider. De julho a setembro, o Facebook detectou pelo menos 13 milhões dessas imagens nocivas na principal rede social e no Instagram.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *