07/11/2021 07:25

Compartilhe:

Por Pablo Ortellado

Frances Haugen, uma ex-funcionária do Facebook, vazou documentos internos da empresa para uma comissão do Senado americano e agora está repassando para um consórcio de veículos de imprensa, que os tem publicado numa série conhecida como “Os documentos do Facebook”.

Haugen fotografou na tela do computador cerca de mil documentos. Esses documentos estão sendo analisados pela equipe jurídica que auxilia a ex-funcionária, depois repassados em blocos para o consórcio de imprensa.

Até agora, foram publicadas mais de 50 reportagens em 16 veículos. A quantidade é grande, e as denúncias tão variadas que é fácil se perder no conjunto.

Por isso, facilito a vida dos leitores com uma seleção criteriosa das três denúncias mais relevantes.

Frances Haugen (à dir.), ex-funcionária que fez denúncias sobre o Facebook à CBS News (Imagem: Robert Fortunato/CBS News)

----------

Já escrevi na coluna sobre a primeira: uma mudança no algoritmo do Facebook ampliou a distribuição de conteúdos divisivos e de ódio. Novas reportagens deram mais detalhes sobre o que aconteceu.

O Facebook alegou que a mudança no algoritmo era para promover interações “mais significativas” com familiares e amigos; mas agora sabemos que sua motivação era financeira.

Ao privilegiar postagens de pessoas próximas, o algoritmo produzia mais interações (curtidas, compartilhamentos e comentários), o que facilitava a construção de perfis de consumo.

Mas essa mudança tinha um efeito colateral: os conteúdos com mais interações promoviam a polarização política e o preconceito. O Facebook tinha plena ciência dessa consequência deletéria e preferiu não reverter a mudança no algoritmo.

A segunda revelação importante é que o Facebook não modera adequadamente conteúdos de fora dos Estados Unidos. A moderação humana é cara, e a moderação por inteligência artificial é muito ineficiente —muito mais do que o Facebook dava a entender.

Como consequência, conteúdos que fomentam ódio e preconceito não são adequadamente moderados, sobretudo se não estão em inglês. Em período eleitoral, alguns países são acompanhados de perto (o Brasil é um desses poucos), mas outros são basicamente negligenciados.

Mesmo em graves crises políticas e humanitárias, o Facebook não faz moderação de conteúdo adequada em mercados que considera secundários.

(Foto: Pixabay)

Finalmente, a revelação mais perturbadora é que o Facebook desenvolveu mecanismos para desarticular movimentos sociais, rompendo com o princípio da neutralidade política.

A plataforma tomou medidas direcionadas a desarticular o Partido Patriota, nos Estados Unidos, e o movimento Querdenken, na Alemanha.

O Partido Patriota questionava o resultado das eleições presidenciais americanas de 2020, e o Querdenken desafiava políticas sanitárias relativas à Covid-19. Seus conteúdos foram considerados “nocivos”, mas, em geral, não contrariavam as políticas da plataforma.

Mesmo sem violar as regras, os movimentos foram arbitrariamente punidos: a inclusão de novos membros nos grupos foi dificultada, a distribuição de postagens foi reduzida, assim como foram reduzidas as notificações das postagens.

O Facebook basicamente arrogou-se o direito de decidir que movimentos sociais são legítimos e podem prosperar na plataforma.

Pablo Ortellado é professor do curso de Gestão de Políticas Públicas da EACH-USP e colunista do jornal O Globo

Nos acompanhe por e-mail!