![Alta na GameStop pode estar no fim, dizem analistas Alta na GameStop pode estar no fim, dizem analistas](/wp-content/uploads/2021/02/shutterstock_1903705351-50x50.jpg)
![Agora você pode trocar sua foto de perfil direto no Google Contatos Agora você pode trocar sua foto de perfil direto no Google Contatos](/wp-content/uploads/2021/02/pexels-andrea-piacquadio-3775168-50x50.jpg)
Experts ouvidos pelo jornal britânico The Guardian criticaram o Facebook por uma “mudança mínima” feita para coibir discursos de ódio. Na última semana, o CEO Mark Zuckerberg anunciou que a rede social não mais usaria seus algoritmos para recomendar grupos políticos a seus usuários, no intuito de “diminuir a temperatura” das discussões políticas na plataforma.
“Isso é como colocar um band-aid em um corte profundo”, disse Jessica J. González, co-fundadora do grupo “Change the Terms” de combate ao discurso de ódio. “Isso não faz nada para combater o longo histórico de abuso que vem sendo permitido tomar parte no Facebook”.
As redes sociais têm sido palco para explosões de ódio às minorias, mas especialistas dizem que isso não é de hoje (Imagem: Lukasz Stefanski/Shutterstock)
Os grupos do Facebook foram lançados em 2010, permitindo que usuários que compartilhassem de gostos e opiniões similares compartilhassem suas ideias. Entretanto, em tempos recentes, a polarização política vista em vários países – sobretudo, EUA e Brasil – fez com que um recurso do Facebook que ambicionava conectar pessoas se tornasse uma ferramenta de ódio a pensamentos divergentes.
Com a mudança do algoritmo, a empresa gostaria de reduzir o calor dessas discussões, mas experts criticam o Facebook, consentindo que isso seria algo difícil de se monitorar e de quantificar, sem falar que o legado tóxico dos Grupos não seria apagado nem tampouco esquecido com esse tipo de medida.
Por “legado tóxico”, eles se referem a grupos que espalham desinformação, fake news e teorias da conspiração, bem como pessoas que se valem da privacidade do recurso para atacar minorias de todos os tipos. Durante anos, o Facebook manteve em segredo o real funcionamento de seus algoritmos, e isso, adicionado à privacidade aumentada dos grupos, dificultou a vida de quem monitora manifestações de ódio na plataforma.
Os grupos do Facebook foram criados para unir pessoas de pensamentos similares, mas deu lugar a extensos e numerosos grupos de ódio que promovem desinformação e conspirações (Imagem: kovop58/Shutterstock)
“É uma caixa preta”, disse González. “É por isso que muitos de nós, ao longo dos anos, viemos pedindo por uma transparência maior sobre a moderação de seus conteúdos e padrões de reforço [de suas regras]”. O que se sabe desses mecanismos, porém, não traz um cenário muito favorável: o próprio Facebook admitiu, em pesquisa realizada em 2016, que mais de 60% dos grupos extremistas são criados por meio de recomendação algorítmica.
Em outras palavras: se uma pessoa se identifica com bandas de rock neonazistas, é bem provável que o Facebook recomende – por meio de palavras chaves, histórico de navegação na plataforma e outros detalhes -, grupos de extremistas que discutem conspirações políticas e preconceito a minorias.
“O Facebook permitiu que supremacistas brancos se organizassem e teóricos da conspiracionistas se unissem por toda a sua plataforma, e falhou para conter esse problema”, disse González. “Na verdade, ele [o Facebook] têm contribuído significativamente para espalhar esse problema por meio de seu sistema de recomendações”.
Segundo uma matéria no Wall Street Journal, documentos internos revelaram que pesquisadores alertaram o Facebook de riscos de conduta vindos dos Grupos. Segundo uma apresentação de agosto de 2020, “cerca de 70% dos 100 grupos não cívicos mais ativos são considerados não recomendados por causa de problemas como ódio, desinformação, bullying e assédio”.
Pouco antes de novembro, o Facebook paralisou a recomendação de grupos políticos temporariamente, a fim de reduzir a volatilidade pública perto das eleições de 3 de novembro de 2020, as quais elegeram Joe Biden como o novo presidente dos Estados Unidos, derrotando Donald Trump (o anúncio de Zuckerberg na semana passada apenas tornou permanente o que antes era temporário).
Dois meses depois, o FBI concluiu que a medida foi um dos gatilhos que levaram aos ataques terroristas ao Capitólio, em Washington, durante a certificação de vitória de Biden. Segundo a força federal americana, boa parte dos invasores do edifício federal se organizou pelo Facebook. Na ocasião, pelo menos cinco pessoas morreram.
Invasores do Capitólio, em Washington, EUA, no dia 6 de janeiro: ataque ao edifício federal foi majoritariamente organizado por grupos do Facebook (Imagem: Sebastian Portillo/Shutterstock)
Como resposta, o Facebook disse que a situação tinha mais a ver com “perigos emergentes” do que “ameaças de longo prazo”: “se você olhasse para os Grupos vários anos atrás, provavelmente não veria os mesmos comportamentos”, disse o vice-presidente de integridade do Facebook, Guy Rosen.
Pesquisadores, porém, refutam essa percepção, relembrando que os Grupos do Facebook foram essenciais na organização de diversos atos terroristas: as manifestações “Unite the Right”, em Charlottesville, no ano de 2019, bem como em manifestações contra e a favor do Estado Islâmico e a Al-Qaeda em meados de 2016, ou ainda o crescimento de grupos antivacina posteriormente implicados em campanhas de assédio e perseguição contra médicos em pesquisa de imunizantes e medicações de várias doenças.
Mas o exemplo mais forte – e mais recente disso – é provavelmente o movimento conspiracionista QAnon: sua origem vem sendo atribuída a uma série de postagens em um grupo fechado do Facebook em 2017. Adiantando para 2020, grupos nomeados a partir do movimento reúnem milhões de usuários que acreditam que o mundo é secretamente governado por um grupo obscuro que engaja em tráfico de mulheres, crianças e pedofilia – e que Donald Trump seria o “herói” a combatê-los. Não surpreendente, muitos dos invasores do Capitólio, no dia 6 de janeiro, portavam camisetas e bandeiras do QAnon.
O “Xamã do QAnon”, Jake Angeli, foi uma das figuras centrais da invasão ao Capitólio, nos EUA, em 6/1/2021. Ele foi preso junto de outros invasores dias depois do ataque (Imagem: Johnny Silvercloud/Shutterstock)
“Grupos políticos no Facebook sempre tiraram vantagem do que é marginalizado, do que é ‘estrangeiro’”, disse Joan Donovan, pesquisadora chefe da organização Data and Society, que estuda o crescimento do discurso de ódio no Facebook. “É de fato uma situação voltada ao reforço – os algoritmos aprendem o que você clicou e o que você curtiu, e tenta reforçar esses comportamentos. Os grupos, assim, se tornam centros de coordenação”.
“Eu não tenho muita certeza de que eles [o Facebook] serão capazes de separar o que é e o que não é um grupo político”, disse Heidi Beirich, uma das diretoras do Southern Poverty Law Center Facebook’s Real Oversight Board, um grupo de acadêmicos e especialistas críticos às práticas de moderação de conteúdo da rede social. Esse grupo foi criado em contraponto ao Comitê de Supervisão oficial do FB.
“Eles permitiram que o QAnon, milícias e outros grupos se proliferassem por tanto tempo, que resquícios destes movimentos ainda permanecem por toda a plataforma”. Ela ainda adicionou ao comentário: “Eu não acho que isso seja algo que eles possam resolver da noite para o dia. Na verdade, não precisa de um movimento massificado, ou um mar de corpos, para fazer na internet o tipo de trabalho que permite que grupos menores tenham um impacto majoritário na opinião pública. Essa é a calmaria antes da tempestade”.
Via The Guardian
Imagem: Pathompong Thongsan (iStock)