Encontrar respostas para os problemas identificados nos últimos vazamentos do Facebook será um processo complexo
Publicados: 2022-04-08Então, o que aprendemos com a mais recente divulgação de documentos e pesquisas internas do Facebook?
Bem, não muito, realmente. A ex-engenheira do Facebook Frances Haugen divulgou um conjunto inicial de relatórios internos da The Social Network no mês passado, que delineou várias preocupações, incluindo suas dificuldades em lidar com conteúdo antivacina, os impactos nocivos de suas mudanças de algoritmo e os efeitos negativos na saúde mental do Instagram. em adolescentes.
Haugen divulgou outro conjunto de relatórios esta semana, por meio de um esforço coordenado com várias publicações importantes, que expandem essas reivindicações iniciais e adicionam mais detalhes sobre vários aspectos. E tudo isso é interessante, sem dúvida, tudo isso ilumina o que o Facebook sabe sobre seus sistemas e como eles podem semear divisão e angústia, e seus impactos sociais mais amplos. Mas as revelações também sublinham amplamente o que já sabíamos ou suspeitávamos. Que a falta de suporte ao idioma local do Facebook levou ao aumento dos danos em algumas regiões, que sua rede é usada para atividades criminosas, incluindo tráfico de pessoas, e que o Facebook pode ter priorizado o crescimento sobre a segurança em algumas tomadas de decisão.
Tudo isso era amplamente conhecido, mas o fato de o Facebook também saber, e que sua própria pesquisa confirma isso, é significativo e levará a toda uma nova gama de ações tomadas contra a Rede Social, de forma variada.
Mas há algumas outras notas valiosas que não sabíamos que estão escondidas entre as milhares de páginas de insights de pesquisas internas.
Um elemento-chave, destacado pelo jornalista Alex Kantrowitz, está relacionado especificamente ao controverso algoritmo do Feed de Notícias e como o Facebook trabalhou para equilibrar as preocupações com a amplificação de conteúdo por meio de vários experimentos.
A principal solução apresentada por Haugen em seu discurso inicial ao Congresso sobre o vazamento do Facebook Files é que as redes sociais deveriam ser forçadas a parar completamente de usar algoritmos baseados em engajamento, por meio de reformas nas leis da Seção 230, que, na visão de Haugen, mudariam os incentivos para engajamento em plataformas sociais e reduzir os danos causados por seus sistemas.
Conforme explicado por Haugen :
“Se tivéssemos supervisão apropriada, ou se reformássemos [Seção] 230 para tornar o Facebook responsável pelas consequências de suas decisões intencionais de classificação, acho que eles se livrariam da classificação baseada em engajamento.”
Mas isso funcionaria?
Conforme relatado por Kantrowitz, o Facebook realmente realizou um experimento para descobrir:
“Em fevereiro de 2018, um pesquisador do Facebook praticamente desligou o algoritmo de classificação do Feed de Notícias para 0,05% dos usuários do Facebook. “O que acontece se excluirmos o feed de notícias classificado?” eles perguntaram em um relatório interno resumindo o experimento. Suas descobertas: sem um algoritmo de feed de notícias, o engajamento no Facebook cai significativamente, as pessoas ocultam 50% mais postagens, o conteúdo de grupos do Facebook sobe ao topo e - surpreendentemente - o Facebook ganha ainda mais dinheiro com os usuários que percorrem o feed de notícias.”
O experimento mostrou que, sem o algoritmo para classificar o conteúdo com base em vários fatores diferentes, os usuários gastavam mais tempo rolando para encontrar postagens relevantes, expondo-os a mais anúncios, enquanto acabavam ocultando muito mais conteúdo - o que, quando você olha para um feed cronológico, não tem o benefício contínuo de reduzir a probabilidade de você ver mais do mesmo no futuro. O conteúdo de grupos aumentou porque os usuários estão mais engajados em grupos (ou seja, toda vez que alguém publica uma atualização em um grupo do qual você é membro, isso pode ser mostrado em seu feed), enquanto muito mais comentários e curtidas de seus amigos levam às publicações da Página que aparecem nos feeds dos usuários.

Portanto, um geral negativo, e não a solução que alguns anunciaram. Claro, parte disso também se baseia no comportamento habitual, pois, eventualmente, os usuários provavelmente deixariam de seguir certas Páginas e pessoas que postam muito, deixariam certos grupos nos quais não estão tão interessados e d aprender novas maneiras de controlar sua alimentação. Mas isso é muito esforço manual por parte dos usuários do Facebook, e o engajamento do Facebook sofreria por causa disso.
Você pode ver por que o Facebook hesitaria em aceitar essa opção, enquanto as evidências aqui não apontam necessariamente para o feed ser menos divisivo como resultado. E isso antes de levar em conta que golpistas e Páginas também aprenderiam a jogar esse sistema.
É uma visão interessante de um elemento-chave do debate mais amplo sobre o impacto do Facebook, com o algoritmo sendo frequentemente identificado como o que tem o impacto mais negativo, concentrando-se no conteúdo que gera engajamento (ou seja, discussão) para manter as pessoas na plataforma por mais tempo.
Isso é verdade? Quero dizer, há claramente um argumento a ser feito de que os sistemas do Facebook otimizam o conteúdo que provavelmente fará com que os usuários publiquem, e a melhor maneira de desencadear uma resposta é através da reação emocional, com raiva e alegria sendo os motivadores mais fortes. Parece provável, então, que os algoritmos do Facebook, intencionalmente ou não, amplifiquem postagens argumentativas, o que pode aumentar a divisão. Mas a alternativa pode não ser muito melhor.
Então, qual é o melhor caminho a seguir?
Esse é o elemento-chave em que precisamos nos concentrar agora. Embora esses insights internos iluminem mais o que o Facebook sabe e seus impactos mais amplos, é importante considerar também quais podem ser os próximos passos e como podemos implementar melhores salvaguardas e processos para melhorar o engajamento nas mídias sociais.
O que o Facebook está tentando fazer – como o CEO do Facebook, Mark Zuckerberg, observou em resposta ao vazamento inicial do Facebook Files.
“ Se quiséssemos ignorar a pesquisa, por que criaríamos um programa de pesquisa líder do setor para entender essas questões importantes em primeiro lugar? Se não nos importássemos em combater conteúdo nocivo, por que empregaríamos muito mais pessoas dedicadas a isso do que qualquer outra empresa em nosso espaço - mesmo aquelas maiores do que nós? ”
O Facebook claramente está analisando esses elementos. A preocupação então se resume a onde realmente residem suas motivações, mas também, de acordo com esse experimento, o que pode ser feito para corrigi-lo. Porque remover completamente o Facebook não vai acontecer – então, quais são as maneiras que podemos procurar para usar esses insights para construir um fórum público mais seguro, mais aberto e menos divisivo?
Essa é uma pergunta muito mais difícil de responder e uma preocupação mais profundamente reflexiva do que muitas das reportagens hiperbólicas sobre o Facebook ser o vilão.