YouTube traz de volta mais moderadores humanos após censura excessiva dos sistemas de IA

ANÚNCIO

O YouTube diz que está trazendo de volta moderadores humanos que foram “colocados offline” durante a pandemia, depois que os filtros de IA da empresa falharam em atingir sua precisão.

Em março, o YouTube disse que confiaria mais em sistemas de aprendizado de máquina para sinalizar e remover conteúdo que violasse suas políticas sobre coisas como discurso de ódio e desinformação.

ANÚNCIO

Mas o YouTube disse ao Financial Times esta semana que o maior uso de moderação de IA levou a um aumento significativo nas remoções de vídeos incorretas.

Cerca de 11 milhões de vídeos foram removidos do YouTube entre abril e junho, diz o Financial Times, ou cerca do dobro da taxa usual.

Cerca de 320.000 dessas remoções foram apeladas e metade dos vídeos foram restabelecidos. Mais uma vez, o FT diz que é quase o dobro do número normal: um sinal de que os sistemas de IA eram excessivamente zelosos em suas tentativas de detectar conteúdo prejudicial.

ANÚNCIO

Como o diretor de produto do YouTube, Neal Mohan, disse ao FT: “Uma das decisões que tomamos [no início da pandemia] quando se tratava de máquinas que não podiam ser tão precisas quanto humanos, íamos errar mas garantir que nossos usuários estivessem protegidos, mesmo que isso pudesse ter resultado em um número ligeiramente maior de vídeos sendo desativados.”

Foto: (Alex Castro/The Verge)

Leia mais: CEO da TikTok pede ao Instagram e Facebook que ajudem a combater a proibição do TikTok

O perigo da Inteligência Artificial

Essa admissão de fracasso é notável. Todas as principais plataformas sociais online, do Twitter ao Facebook e YouTube, estão cada vez mais sob pressão para lidar com a disseminação de conteúdo odioso e enganoso em seus sites.

E todos disseram que filtros algorítmicos e automatizados podem ajudar a lidar com a imensa escala de suas plataformas.

Repetidamente, porém, especialistas em IA e moderação expressaram ceticismo sobre essas afirmações.

Julgar se um vídeo sobre, digamos, teorias da conspiração contém acenos sutis em direção a crenças racistas pode ser um desafio para um humano, dizem eles, e os computadores não têm nossa capacidade de entender o contexto cultural exato e as nuances dessas afirmações.

Os sistemas automatizados podem detectar os infratores mais óbvios, o que sem dúvida é útil, mas os humanos ainda são necessários para os julgamentos mais precisos.

Mesmo com decisões mais diretas, as máquinas ainda podem errar. Em maio, por exemplo, o YouTube admitiu que estava excluindo automaticamente comentários contendo certas frases críticas ao Partido Comunista Chinês (PCC).

Posteriormente, a empresa culpou um “erro em nossos sistemas de fiscalização” pelos erros.

Mas, como Mohan disse ao FT, os sistemas de aprendizado de máquina definitivamente têm seu lugar, mesmo que seja apenas para remover os infratores mais óbvios.

“Mais de 50% desses 11 milhões de vídeos foram removidos sem uma única visualização por um usuário real do YouTube e mais de 80% foram removidos com menos de 10 visualizações”, disse ele. “E esse é o poder das máquinas.”

Traduzido e adaptado por equipe O Mapa da Mina.

Fonte: The Verge e Financial Times

ANÚNCIO