Facebook vai parar de recomendar grupos de saúde

ANÚNCIO

O Facebook está adicionando novas regras com o objetivo de evitar a disseminação de desinformação e outros conteúdos prejudiciais em seu recurso Grupos.

A partir de agora, se um grupo for removido por violar as políticas do Facebook, seus membros e administradores ficarão temporariamente impossibilitados de criar novos grupos.

ANÚNCIO

Se um grupo não tiver administradores, ele será arquivado. E o Facebook não incluirá nenhum grupo relacionado à saúde em suas recomendações.

Os grupos do Facebook têm sido acusados ​​de espalhar desinformação e conspirações, especialmente quando o algoritmo de recomendação do Facebook os promove.

Foto: (Alex Castro/ The Verge)

Veja também: iOS 14 e iPadOS 14 estão começando a ser implementados

As novas regras da empresa expandem os esforços existentes para policiá-los. Os administradores já foram impedidos de criar um novo grupo semelhante a um banido, por exemplo.

ANÚNCIO

Algumas das novas políticas incentivam uma administração mais ativa de grupos. Se os administradores deixarem o cargo, eles podem convidar membros para substituí-los; se ninguém o fizer, o Facebook irá aparentemente “sugerir” funções de administrador aos membros e arquivar o grupo se isso falhar.

Além disso, se os membros do grupo acusarem uma violação dos padrões da comunidade, os moderadores terão que aprovar todas as suas postagens por 30 dias.

Se os moderadores aprovarem repetidamente postagens que violam as diretrizes do Facebook, o grupo pode ser removido.

As diretrizes de saúde têm uma abordagem mais ampla, concentrando-se em uma categoria inteira de conteúdo, não em um comportamento específico de violação de regras.

O Facebook diz que embora os grupos possam “ser um espaço positivo para dar e receber apoio durante circunstâncias de vida difíceis… é crucial que as pessoas obtenham suas informações de saúde de fontes confiáveis”.

Pandemia da desinformação

A empresa já tentou limitar a disseminação do conteúdo antivacinação e da desinformação sobre o coronavírus por meio de outros métodos, incluindo a adição de informações contextuais a postagens que discutem COVID-19 e a colocação de banners nas páginas relacionadas à vacinação.

O Facebook também diz que continua a limitar o conteúdo de grupos de milícias e outras organizações ligadas à violência.

Os grupos que discutem a violência potencial serão removidos e em breve rebaixará até mesmo o conteúdo não violador no Feed de notícias.

A empresa tem lutado, no entanto, para definir os limites do conteúdo ofensivo – incluindo postagens de um grupo de milícia que se autodenomina em Kenosha, Wisconsin, onde um apoiador da milícia de 17 anos matou duas pessoas durante uma noite de protestos.

Traduzido e adaptado por equipe O Mapa da Mina.

Fonte: The Verge

ANÚNCIO