A Meta, gigante da tecnologia responsável por plataformas como Facebook, Instagram e WhatsApp, anunciou uma mudança radical em sua política de moderação de conteúdo. A empresa decidiu encerrar o sistema de checagem de informações, conhecido por identificar e combater fake news, e adotará um modelo mais flexível, similar ao do X (antigo Twitter). A decisão foi confirmada por Mark Zuckerberg, CEO da companhia, que declarou: “É hora de voltarmos às nossas raízes em relação à liberdade de expressão.”
A declaração, feita durante uma conferência virtual com investidores e jornalistas, sinaliza uma nova fase na história da Meta, que tem enfrentado críticas nos últimos anos pela maneira como lida com a moderação de conteúdo. O sistema de checagem, introduzido após a eleição presidencial dos Estados Unidos em 2016, foi uma resposta às críticas de que a plataforma permitia a disseminação de informações falsas que influenciavam processos democráticos.
Um modelo inspirado no X
A decisão da Meta segue os passos do X, plataforma de Elon Musk, que implementou uma política menos restritiva em relação à moderação de conteúdo. Desde que Musk assumiu o controle, o X deixou de aplicar verificações rigorosas em postagens, permitindo maior liberdade para os usuários. O modelo atraiu tanto defensores da liberdade de expressão quanto críticos que alertam para o aumento de discursos de ódio e desinformação.
Ao justificar a mudança, Zuckerberg afirmou que o objetivo é “promover um ambiente onde as pessoas possam expressar suas opiniões livremente, sem medo de censura.” Ele também ressaltou que a empresa está desenvolvendo novas ferramentas para que os usuários filtrem o conteúdo que desejam consumir.
“Queremos que cada indivíduo seja responsável por decidir o que é ou não relevante ou verdadeiro para si. Acreditamos que o futuro das plataformas digitais está na autonomia do usuário, e não em decisões centralizadas por empresas ou checadores terceirizados”, afirmou o CEO.
Impactos e reações
A decisão da Meta já está dividindo opiniões. Defensores da liberdade de expressão elogiaram a medida, destacando que a moderação excessiva pode sufocar debates e opiniões legítimas. Por outro lado, especialistas em tecnologia e democracia alertam para os riscos de desinformação descontrolada.
Segundo especialistas, a mudança pode trazer desafios significativos, especialmente em períodos de eleições e crises globais, onde informações falsas podem causar impactos devastadores. “As redes sociais têm um papel fundamental na disseminação de informações, mas também na preservação da verdade. Sem checagem, o risco de manipulação aumenta exponencialmente”, afirmou Maria Antunes, analista de tecnologia e sociedade.
O futuro da moderação de conteúdo
A Meta ainda não divulgou detalhes específicos sobre como o novo sistema de moderação funcionará, mas adiantou que está trabalhando em um recurso que permitirá aos usuários personalizar suas experiências, filtrando o conteúdo conforme suas preferências.
A mudança é um reflexo da crescente pressão sobre as plataformas para equilibrar liberdade de expressão e combate à desinformação. Enquanto isso, o mundo observa atentamente os desdobramentos dessa decisão, que pode redefinir os rumos das redes sociais e da comunicação digital.
Se a estratégia será bem-sucedida ou gerará um aumento desenfreado de desinformação, só o tempo dirá. Para Zuckerberg, no entanto, o foco está claro: devolver o controle ao usuário e “resgatar os valores originais da internet como espaço de liberdade.”