O YouTube descreve sua abordagem para policiar a desinformação e os desafios de uma ação eficaz

Publicados: 2022-04-08

O debate em torno da desinformação nas plataformas sociais e como ela deve ser policiada é incrivelmente complexo, sem soluções abrangentes. Remover relatórios claramente falsos parece ser o passo mais lógico e eficaz - mas isso nem sempre é tão claro, e inclinar-se demais para o outro lado e remover demais pode limitar a liberdade de expressão e o debate valioso.

Qualquer uma das abordagens tem perigos e, hoje, o diretor de produtos do YouTube, Neal Mohan, forneceu sua perspectiva sobre o problema e como o YouTube está procurando equilibrar sua abordagem à desinformação com a necessidade de facilitar uma plataforma aberta para todos os usuários.

Em primeiro lugar, ao abordar especificamente a desinformação médica, o tópico principal do momento, Mohan observa que o YouTube removeu mais de um milhão de vídeos relacionados a informações sobre coronavírus desde fevereiro de 2020, incluindo aqueles que promovem falsas curas ou alegam que a pandemia é uma farsa.

“No meio de uma pandemia global, todos devem estar munidos com absolutamente as melhores informações disponíveis para manter a si mesmos e suas famílias em segurança”.

Dito isso, o YouTube facilitou a disseminação de uma quantidade significativa de desinformação sobre o COVID. Em maio passado, por exemplo, um controverso vídeo antivacina chamado 'Plandemic' foi visto mais de 7 milhões de vezes no YouTube antes de ser removido.

O desafio para o YouTube a esse respeito, assim como para o Facebook, é a escala - com tantas pessoas ativas na plataforma o tempo todo, é difícil para o YouTube agir com rapidez suficiente para capturar tudo em tempo hábil, e até mesmo um um pequeno atraso na aplicação pode levar a milhões de visualizações a mais e a um impacto muito maior.

Sobre isso, Mohan observa que, dos 10 milhões de vídeos que a plataforma remove por violação das diretrizes a cada trimestre, a maioria nem chega a 10 visualizações. Mas, novamente, isso é uma média, e haverá casos como 'Plandemic' que passarão despercebidos, algo que Mohan também reconhece.

"Remoções rápidas sempre serão importantes, mas sabemos que não são suficientes. Em vez disso, é como também tratamos todo o conteúdo que estamos deixando no YouTube que nos dá o melhor caminho a seguir."

Nessa frente, Mohan diz que outro elemento da abordagem do YouTube é garantir que as informações de fontes confiáveis ​​tenham prioridade nos elementos de busca e descoberta do aplicativo, enquanto posteriormente busca reduzir o alcance de provedores menos respeitáveis.

"Quando as pessoas agora pesquisam notícias ou informações, obtêm resultados otimizados para qualidade, não para quão sensacional o conteúdo pode ser."

Qual é o caminho certo a seguir - otimizar o engajamento parece um caminho para o perigo a esse respeito. Mas, novamente, o cenário da mídia moderna também pode obscurecer isso, com publicações essencialmente incentivadas a publicar conteúdo mais divisivo e carregado de emoção para gerar mais cliques.

Vimos isso no início da semana, quando os dados do Facebook revelaram que este post, do The Chicago Tribune, obteve 54 milhões de visualizações apenas no engajamento do Facebook no primeiro trimestre deste ano.

História do Chicago Tribune

A manchete é enganosa - o médico acabou por morrer de causas não relacionadas à vacina. Mas você pode imaginar como isso teria alimentado grupos antivacinas em toda a Rede Social - e alguns, em resposta, disseram que a falha nesse caso não era dos sistemas do Facebook, que facilitaram a amplificação do post, mas do próprio Chicago Tribune por publicar um título claramente enganoso.

O que é verdade, mas ao mesmo tempo, todas as publicações sabem o que impulsiona o engajamento do Facebook – e este caso prova isso. Se você deseja maximizar o alcance do Facebook e o tráfego de referência, títulos emocionais e divisivos que geram engajamento, na forma de curtidas, compartilhamentos e comentários, funcionam melhor. O Tribune obteve 54 milhões de visualizações em um único artigo, o que destaca uma grande falha no sistema de incentivos para os meios de comunicação.

Ele também destaca o fato de que até os meios de comunicação 'respeitáveis' podem publicar desinformação e conteúdo que alimenta movimentos perigosos - então, mesmo com o foco do YouTube em compartilhar conteúdo de fontes confiáveis, isso nem sempre será uma solução para esses problemas.

Que Mohan observa ainda:

"Em muitos casos, a desinformação não é clara. Por natureza, ela evolui constantemente e muitas vezes não tem uma fonte primária para nos dizer exatamente quem está certo. Como no rescaldo de um ataque, informações conflitantes podem vir de todas as direções. Dicas de crowdsourcing até identificaram o culpado ou as vítimas erradas, com efeitos devastadores. Na ausência de certeza, as empresas de tecnologia devem decidir quando e onde estabelecer limites no território obscuro da desinformação? Minha forte convicção é que não.

Você pode ver, então, por que Mohan hesita em pressionar por mais remoções, uma solução muitas vezes pressionada por analistas externos, enquanto Mohan também aponta para a crescente interferência de regimes opressores que buscam anular visões opostas por meio da censura de discussões online.

"Estamos vendo um novo impulso perturbador em torno dos governos que ordenam a remoção de conteúdo para fins políticos. E pessoalmente acredito que estamos melhor como sociedade quando podemos ter um debate aberto. A desinformação de uma pessoa geralmente é a crença profunda de outra pessoa, incluindo perspectivas que são provocativas, potencialmente ofensivas, ou mesmo em alguns casos, incluem informações que podem não passar pelo escrutínio de um verificador de fatos."

Novamente, as respostas não são claras e, para plataformas com o alcance do YouTube ou Facebook, esse é um elemento significativo que requer investigação e ação sempre que possível.

Mas não vai resolver tudo. Às vezes, o YouTube deixa coisas que deveriam ser removidas, levando a mais problemas potenciais de exposição e amplificação, enquanto outras vezes remove conteúdo que muitos acreditam que deveria ter sido deixado. Mohan não nega isso, nem se esquiva da responsabilidade por isso, e é interessante notar a nuance levada em consideração neste debate ao tentar determinar o melhor caminho a seguir.

Há casos em que as coisas são claras - sob o conselho de órgãos médicos oficiais, por exemplo, a desinformação sobre o COVID-19 deve ser removida. Mas nem sempre é assim que funciona. Na verdade, com mais frequência do que se nota, as decisões de julgamento estão sendo feitas plataforma por plataforma, quando provavelmente não deveriam ser. A solução ideal, então, poderia ser um grupo de supervisão mais amplo e independente fazendo chamadas em tempo real e orientando cada plataforma em sua abordagem.

Mas mesmo isso pode estar sujeito a abusos.

Como observado, não há respostas fáceis, mas é interessante ver a perspectiva do YouTube sobre o debate em evolução.