Youtube usara inteligência artificial para bloquear automaticamente vídeos que violam restrições de idade

O YouTube usará aprendizado de máquina para aplicar automaticamente restrições de idade em vídeos, disse o site de vídeos do Googlena terça-feira, ampliando seu uso de inteligência artificial para automatizar o bloqueio de alguns vídeos de espectadores que ou não estão assinados em uma conta no YouTube ou estão assinados como espectadores com menos de 18 anos.

Criadores que acreditam que seus vídeos foram bloqueados injustamente podem apelar. O YouTube disse que essas restrições de idade automatizadas e alguns ajustes no que ele classifica como inapropriado para pessoas menores de 18 anos serão todos “implementados nos próximos meses”.

Atualmente, o YouTube tem uma equipe humana que aplica as restrições de idade quando revisa um vídeo que não é apropriado para espectadores mais jovens. “Daqui para frente, basearemos nossa abordagem de usar aprendizado de máquina para detectar conteúdo para revisão, desenvolvendo e adaptando nossa tecnologia para nos ajudar a aplicar automaticamente restrições de idade”, disse o YouTube.

O YouTube, com mais de 2 bilhões de usuários mensais,é a maior fonte de vídeo online do mundo — tão grande, na verdade, que é a principal fonte mundial de vídeos infantis também. O conteúdo para crianças é uma das categorias mais assistidasdo site, mas o YouTube está sob fogo por uma série de escândalos envolvendo crianças. Foi esbofeteado com uma multa recorde de US$ 170 milhões nos EUA por causa dos dados que o YouTube coleta em crianças sem o consentimento dos pais. O YouTube também enfrentou escândalos envolvendo vídeos de abuso e exploração infantil e conteúdo noturno em seu aplicativo YouTube Kids, lançado como uma zona segura para crianças.

Centenas de horas de vídeo são enviadas para o YouTube a cada minuto, tornando impossível uma revisão humana abrangente. Assim, os executivos do YouTube têm apontado o aprendizado de máquina como uma ferramenta crucial para complementar a moderação humana. Mas as decisões de conteúdo tomadas por algoritmos automatizados podem ser propensas a erros. Esses erros podem ocorrer quando julgamentos de valor e contexto são importantes para fazer a chamada correta; outras vezes, surge um novo tipo de problema que o software não foi treinado para resolver.

Imagens de um tiroteio em massa em uma mesquita da Nova Zelândia no ano passado, por exemplo, foram inicialmente capazes de se espalhar no YouTube em parte porque o aprendizado de máquina teve problemas para detectá-lo automaticamente.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *