Vida Celular

Tudo sobre os melhores celulares

Nós do Vida Celular e nossos parceiros utilizamos cookies, localStorage e outras tecnologias semelhantes para personalizar conteúdo, anúncios, recursos de mídia social, análise de tráfego e melhorar sua experiência neste site, de acordo com nossos Termos de Uso e Privacidade. Ao continuar navegando, você concorda com estas condições.

Experts ouvidos pelo jornal britânico The Guardian criticaram o Facebook por uma “mudança mínima” feita para coibir discursos de ódio. Na última semana, o CEO Mark Zuckerberg anunciou que a rede social não mais usaria seus algoritmos para recomendar grupos políticos a seus usuários, no intuito de “diminuir a temperatura” das discussões políticas na plataforma.

Publicidade
“Um band-aid em um corte profundo”

“Isso é como colocar um band-aid em um corte profundo”, disse Jessica J. González, co-fundadora do grupo “Change the Terms” de combate ao discurso de ódio. “Isso não faz nada para combater o longo histórico de abuso que vem sendo permitido tomar parte no Facebook”.

Facebook ódio

As redes sociais têm sido palco para explosões de ódio às minorias, mas especialistas dizem que isso não é de hoje (Imagem: Lukasz Stefanski/Shutterstock)

Os grupos do Facebook foram lançados em 2010, permitindo que usuários que compartilhassem de gostos e opiniões similares compartilhassem suas ideias. Entretanto, em tempos recentes, a polarização política vista em vários países – sobretudo, EUA e Brasil – fez com que um recurso do Facebook que ambicionava conectar pessoas se tornasse uma ferramenta de ódio a pensamentos divergentes.

Um “legado tóxico” que seguirá ativo

Com a mudança do algoritmo, a empresa gostaria de reduzir o calor dessas discussões, mas experts criticam o Facebook, consentindo que isso seria algo difícil de se monitorar e de quantificar, sem falar que o legado tóxico dos Grupos não seria apagado nem tampouco esquecido com esse tipo de medida.

Por “legado tóxico”, eles se referem a grupos que espalham desinformação, fake news e teorias da conspiração, bem como pessoas que se valem da privacidade do recurso para atacar minorias de todos os tipos. Durante anos, o Facebook manteve em segredo o real funcionamento de seus algoritmos, e isso, adicionado à privacidade aumentada dos grupos, dificultou a vida de quem monitora manifestações de ódio na plataforma.

Facebook ódio

Os grupos do Facebook foram criados para unir pessoas de pensamentos similares, mas deu lugar a extensos e numerosos grupos de ódio que promovem desinformação e conspirações (Imagem: kovop58/Shutterstock)

“É uma caixa preta”, disse González. “É por isso que muitos de nós, ao longo dos anos, viemos pedindo por uma transparência maior sobre a moderação de seus conteúdos e padrões de reforço [de suas regras]”. O que se sabe desses mecanismos, porém, não traz um cenário muito favorável: o próprio Facebook admitiu, em pesquisa realizada em 2016, que mais de 60% dos grupos extremistas são criados por meio de recomendação algorítmica.

Em outras palavras: se uma pessoa se identifica com bandas de rock neonazistas, é bem provável que o Facebook recomende – por meio de palavras chaves, histórico de navegação na plataforma e outros detalhes -, grupos de extremistas que discutem conspirações políticas e preconceito a minorias.

“O Facebook permitiu que supremacistas brancos se organizassem e teóricos da conspiracionistas se unissem por toda a sua plataforma, e falhou para conter esse problema”, disse González. “Na verdade, ele [o Facebook] têm contribuído significativamente para espalhar esse problema por meio de seu sistema de recomendações”.

FB foi alertado sobre riscos de conduta nos grupos

Segundo uma matéria no Wall Street Journal, documentos internos revelaram que pesquisadores alertaram o Facebook de riscos de conduta vindos dos Grupos. Segundo uma apresentação de agosto de 2020, “cerca de 70% dos 100 grupos não cívicos mais ativos são considerados não recomendados por causa de problemas como ódio, desinformação, bullying e assédio”.

Pouco antes de novembro, o Facebook paralisou a recomendação de grupos políticos temporariamente, a fim de reduzir a volatilidade pública perto das eleições de 3 de novembro de 2020, as quais elegeram Joe Biden como o novo presidente dos Estados Unidos, derrotando Donald Trump (o anúncio de Zuckerberg na semana passada apenas tornou permanente o que antes era temporário).

Um ataque anunciado

Dois meses depois, o FBI concluiu que a medida foi um dos gatilhos que levaram aos ataques terroristas ao Capitólio, em Washington, durante a certificação de vitória de Biden. Segundo a força federal americana, boa parte dos invasores do edifício federal se organizou pelo Facebook. Na ocasião, pelo menos cinco pessoas morreram.

Invasores do Capitólio dos EUA, em 6 de janeiro de 2020

Invasores do Capitólio, em Washington, EUA, no dia 6 de janeiro: ataque ao edifício federal foi majoritariamente organizado por grupos do Facebook (Imagem: Sebastian Portillo/Shutterstock)

Como resposta, o Facebook disse que a situação tinha mais a ver com “perigos emergentes” do que “ameaças de longo prazo”: “se você olhasse para os Grupos vários anos atrás, provavelmente não veria os mesmos comportamentos”, disse o vice-presidente de integridade do Facebook, Guy Rosen.

Pesquisadores, porém, refutam essa percepção, relembrando que os Grupos do Facebook foram essenciais na organização de diversos atos terroristas: as manifestações “Unite the Right”, em Charlottesville, no ano de 2019, bem como em manifestações contra e a favor do Estado Islâmico e a Al-Qaeda em meados de 2016, ou ainda o crescimento de grupos antivacina posteriormente implicados em campanhas de assédio e perseguição contra médicos em pesquisa de imunizantes e medicações de várias doenças.

Território livre para o movimento QAnon

Mas o exemplo mais forte – e mais recente disso – é provavelmente o movimento conspiracionista QAnon: sua origem vem sendo atribuída a uma série de postagens em um grupo fechado do Facebook em 2017. Adiantando para 2020, grupos nomeados a partir do movimento reúnem milhões de usuários que acreditam que o mundo é secretamente governado por um grupo obscuro que engaja em tráfico de mulheres, crianças e pedofilia – e que Donald Trump seria o “herói” a combatê-los. Não surpreendente, muitos dos invasores do Capitólio, no dia 6 de janeiro, portavam camisetas e bandeiras do QAnon.

O "Xamâ do QAnon", Jake Angeli

O “Xamã do QAnon”, Jake Angeli, foi uma das figuras centrais da invasão ao Capitólio, nos EUA, em 6/1/2021. Ele foi preso junto de outros invasores dias depois do ataque (Imagem: Johnny Silvercloud/Shutterstock)

“Grupos políticos no Facebook sempre tiraram vantagem do que é marginalizado, do que é ‘estrangeiro’”, disse Joan Donovan, pesquisadora chefe da organização Data and Society, que estuda o crescimento do discurso de ódio no Facebook. “É de fato uma situação voltada ao reforço – os algoritmos aprendem o que você clicou e o que você curtiu, e tenta reforçar esses comportamentos. Os grupos, assim, se tornam centros de coordenação”.

Real Oversight Board também reforça que o problema continua

“Eu não tenho muita certeza de que eles [o Facebook] serão capazes de separar o que é e o que não é um grupo político”, disse Heidi Beirich, uma das diretoras do Southern Poverty Law Center Facebook’s Real Oversight Board, um grupo de acadêmicos e especialistas críticos às práticas de moderação de conteúdo da rede social. Esse grupo foi criado em contraponto ao Comitê de Supervisão oficial do FB.

“Eles permitiram que o QAnon, milícias e outros grupos se proliferassem por tanto tempo, que resquícios destes movimentos ainda permanecem por toda a plataforma”. Ela ainda adicionou ao comentário: “Eu não acho que isso seja algo que eles possam resolver da noite para o dia. Na verdade, não precisa de um movimento massificado, ou um mar de corpos, para fazer na internet o tipo de trabalho que permite que grupos menores tenham um impacto majoritário na opinião pública. Essa é a calmaria antes da tempestade”.

Via The Guardian

Imagem: Pathompong Thongsan (iStock)