Breaking News

IA vai gerenciar comentarios de usuarios no Youtube

O YouTube começará a pedir aos comentaristas que reconsiderem a postagem de algo antes de subir se a inteligência artificial do Googleidentificar esse comentário como potencialmente ofensivo, disse o YouTube na quinta-feira. O novo prompt do YouTube sugere que os comentaristas revisem as diretrizes da comunidade da empresa se “não têm certeza se o post é respeitoso”, e então dá a opção de editar o conteúdo ou postar de qualquer maneira.

“Para incentivar conversas respeitosas no YouTube, estamos lançando um novo recurso que alertará os usuários quando seu comentário pode ser ofensivo para os outros, dando-lhes a opção de refletir antes de postar”, disse o YouTube em um post no blog anunciando o recurso e outras medidas destinadas a melhorar a inclusão na plataforma.

O recurso agora está no Android. Comentários que não desencadeiam o lembrete ainda podem ser removidos pelo YouTube mais tarde se forem encontrados para violar as diretrizes da comunidade do serviço, que são essencialmente o livro de regras do YouTube sobre o que é permitido e o que passa dos limites. Mas os comentários que acionam o aviso não serão necessariamente removidos se postados.

O sistema do YouTube identifica postagens potencialmente ofensivas aprendendo com o que tem sido repetidamente relatado pelos usuários.

O YouTube é uma empresa que não tem problemas para contar ao longo dos anos, incluindo desinformação, teorias da conspiração, discriminação, assédio, vídeos de assassinato em massa e abuso e exploração infantil — e seus comentários permanecem notórios por seu potencial de se tornar tóxico.

A escala maciça do YouTube – atendendo 2 bilhões de usuários mensais e ingerindo mais de 500 horas de uploads de vídeo a cada minuto – significa que a empresa deve confiar no aprendizado de máquina não apenas para recomendar o que mais assistir, mas também para policiar sua plataforma. Por exemplo, a empresa anunciou em setembro que a inteligência artificial começaria a determinar automaticamente quais vídeos precisam ser bloqueados de espectadores menores de idade.

O YouTube disse que, desde o início de 2019, o número de comentários removidos do site diariamente por discurso de ódio se multiplicou em 46. Entre julho e setembro, encerrou mais de 54.000 canais de discurso de ódio, dos 1,8 milhões de canais encerrados — ele disse que foi o maior número de demissões de discursos de ódio em um único trimestre, três vezes mais do que a alta anterior em meados de 2019, quando a empresa atualizou sua política de discurso de ódio.

O recurso de alerta foi anunciado juntamente com outras medidas destinadas a melhorar a inclusão no YouTube.

A empresa disse que estaria testando um novo filtro no sistema de gerenciamento de comentários para proprietários de canais, que irá extrair comentários potencialmente inapropriados e ofensivos que foram automaticamente mantidos para revisão, demodo que os criadores não precisam lê-los se não quiserem.

A partir do próximo ano, inicialmente nos EUA, o YouTube pedirá aos criadores que façam pesquisas opcionais que identifiquem seu gênero, orientação sexual, raça e etnia. A empresa disse que esses dados o ajudarão a “olhar atentamente como o conteúdo de diferentes comunidades é tratado em nossos sistemas de pesquisa e descoberta e monetização” e “para possíveis padrões de ódio, assédio e discriminação que podem afetar algumas comunidades mais do que outras”.

“A privacidade e a capacidade de nossos criadores de fornecer consentimento para como suas informações são usadas são críticas. Na pesquisa, explicaremos como as informações serão usadas e como o criador controla suas informações”, disse a empresa. “Por exemplo, as informações coletadas não serão usadas para fins publicitários, e os criadores terão a capacidade de desativar e excluir suas informações inteiramente a qualquer momento.”

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *