Na última semana, Mark Zuckerberg, CEO da Meta, anunciou mudanças significativas nas políticas de moderação de conteúdo das plataformas da empresa, incluindo Facebook e Instagram. As alterações incluem:
1. Fim das Parcerias com Verificadores de Fatos
2. Simplificação das Políticas de Conteúdo
3. Mudança das Equipes de Moderação
4. Colaboração com o Governo dos EUA
Segundo Zuckerberg, a decisão foi motivada por críticas crescentes sobre a suposta parcialidade dos verificadores de fatos, além de erros que, segundo ele, resultaram em censura injustificada de conteúdos legítimos. A implementação das mudanças será iniciada de forma imediata nos Estados Unidos e deve chegar ao Brasil até o início do segundo trimestre de 2025.
Preocupações
A decisão tem gerado debates intensos sobre as possíveis consequências das alterações. Há temores de que as novas políticas da Meta possam facilitar o aumento de desinformação (fake news) e discurso de ódio nas plataformas, além de possibilitar o uso irregular das redes sociais para a prática de crimes. Esses cenários poderiam levar a uma sobrecarga no Judiciário e a um aumento no número de solicitações de remoção de conteúdo considerado irregular.
Enquanto críticos levantam esses alertas, defensores da liberdade de expressão enxergam as mudanças como um avanço positivo, afirmando que elas ajudarão a evitar a censura excessiva. Em comunicado oficial, Zuckerberg afirmou que: “As redes sociais devem servir como plataformas neutras de diálogo e troca de ideias. A moderação excessiva cria um ambiente de censura incompatível com os princípios da democracia.”
Na Europa
Reguladores europeus também demonstraram preocupação e afirmaram que irão fiscalizar rigorosamente o cumprimento das leis locais pela Meta. A empresa pode enfrentar multas significativas caso viole normas relacionadas à desinformação ou à segurança digital.
No Brasil
No Brasil, a repercussão foi imediata. O Ministério da Justiça, por meio da Secretaria Nacional do Consumidor (Senacon), notificou a Meta, exigindo explicações detalhadas sobre as implicações das mudanças. A Senacon concedeu um prazo de 72 horas para que a empresa esclareça como pretende garantir a proteção contra a disseminação de fake news e conteúdos ilegais, como apologia ao crime e discurso de ódio.
No Supremo Tribunal Federal (STF)
Após a declaração de Zuckerberg, o ministro do Supremo Tribunal Federal (STF), Alexandre de Moraes, reforçou a necessidade das empresas respeitarem a legislação brasileira. E afirmou que: “No Brasil, [redes sociais] só continuarão a operar se respeitarem a legislação brasileira. Independentemente de bravatas de dirigentes irresponsáveis das big techs.”
O Tribunal Superior Eleitoral (TSE) também manifestou preocupação, classificando a decisão da Meta como um retrocesso significativo para a humanidade no combate à desinformação.
Deixe o seu comentário
Concorda ou discorda da mudança? Envie seu comentário ou sugestão para: consultor@josemilagre.com.br e não se esqueça de se inscrever no meu canal no YouTube (youtube.com/josemilagre) ou me seguir no Instagram (@dr.josemilagre).