Go back Tendências & Notícias

Anúncio de Zuckerberg: impacto das novas políticas da Meta em takedowns

Por Time de Conteúdo em 14 de Janeiro de 2025

As novas políticas da Meta prometem mudar a forma como conteúdos são moderados em suas plataformas. Saiba o que isso significa para empresas e seu impacto na remoção de fraudes e golpes.

 

Destaques do artigo

  • O que muda com as novas políticas da Meta? Entenda como a moderação está sendo reformulada e o que isso significa para fraudes e golpes.
  • Fraudes e golpes perderão prioridade? Descubra por que essas violações continuam no radar, mas a mudança do time de Trust and Safety levanta dúvidas.
  • As mudanças podem afetar o público das plataformas? Veja como as novas diretrizes podem influenciar o comportamento dos usuários das redes sociais.
  • Como se preparar para esse cenário? Saiba como a inteligência artificial pode ser a chave para lidar com notificações em tempos de incerteza.
  • O governo pode bloquear as plataformas da Meta? Explore por que países como o Brasil estão atentos às novas diretrizes da organização.

Em 7 de janeiro de 2025, o CEO da Meta, Mark Zuckerberg, anunciou mudanças significativas em seu programa de Trust and Safety, responsável por aplicar as políticas relacionadas à desinformação e outros desvios dos padrões de comunidade. As alterações impactarão diretamente as redes sociais Facebook, Instagram e Threads, algumas das plataformas mais populares no Brasil.


Com as atualizações, a empresa pretende “restaurar a liberdade de expressão nas plataformas”, de acordo com o pronunciamento de Zuckerberg. Segundo o CEO, isso corrigirá erros nos filtros que estariam censurando conteúdos indevidamente.

 

Post de Mark Zuckerberg na rede social Threads detalha mudanças nas políticas da Meta. 

 

Zuckerberg defende que isso liberaria esforços para focar em filtrar conteúdo ilegal, citando atividades criminosas como drogas, terrorismo e exploração infantil. Mas também admite que, com as mudanças, a plataforma vai “detectar menos coisas ruins", o que seria um trade off aceito para redução da censura.

 

Mas, o que mudou exatamente nas políticas da Meta e por que isso pode ser relevante para a sua empresa? 

 

Principais mudanças nas políticas da Meta:

 

  • Fim do programa de checagem de fatos, substituindo-o por um modelo baseado em "Notas da Comunidade", onde usuários colaboram na avaliação de conteúdos (semelhante ao implementado pela rede social X, antigo Twitter). A descontinuação começa pelos Estados Unidos.
  • A Meta agora focará nos filtros de exclusão apenas de conteúdos considerados violações legais e de “alta gravidade", deixando casos considerados menos graves a cargo de denúncias dos usuários ou notas da comunidade. 
  • O setor de Trust and Safety, hospedado originalmente na Califórnia, será realocado para o Texas, um estado contrário à moderação política nas redes. Segundo Zuckerberg, o objetivo é reduzir o viés do time na Califórnia, que estaria censurando excessivamente.

Ecossistema de segurança digital: o que esperar dos impactos para a proteção de marca

 

A exclusão da checagem de fatos está mais relacionada à liberdade de expressão defendida por Zuckerberg, já que as equipes de checagem de fatos funcionavam para filtrar desinformação nas postagens das plataformas.

 

Já os casos de uso indevido de marcas se diferem, levantando dúvidas sobre como essas mudanças podem afetar os processos de remoção de conteúdo malicioso, os takedowns. 

 

Ao mudar o foco dos filtros para se concentrar nas violações de alta gravidade, a Meta inclui fraudes e golpes nessa categoria. Em seu discurso, o CEO da Meta afirmou: "Continuaremos a direcionar esses sistemas para combater violações ilegais e de alta gravidade, como terrorismo, exploração sexual infantil, drogas, fraudes e golpes."

 

O uso de marca sem autorização pode ser considerada uma atividade ilegal, reforçando a inclusão de casos como perfis e anúncios falsos personificando marcas nesse novo foco de atuação. Para esses casos, o tipo de denúncia mais recorrente é a alegação de violação de direito de propriedade intelectual para retirada de perfis que se apropriam de sinais distintivos da marca, como nome e logo, em benefício próprio. 

 

A DMCA (Digital Millennium Copyright Act, Lei dos Direitos Autorais do Milênio Digital) é uma lei de direitos autorais dos Estados Unidos que permite aos provedores digitais a isenção de responsabilidade por violação de direitos autorais, caso eles removam prontamente o conteúdo. Como uma empresa norte-americana, o Meta possui regras que exigem a atuação imediata em casos de reivindicação de violação de direitos autorais, o que exige uma ação rápida da plataforma diante de alguma denúncia correta e bem embasada. Em boa parte dos casos de perfis e anúncios fraudulentos, o uso de comerciais, palavras e imagens protegidas possui o intuito de gerar credibilidade para a página falsa.

 

Dessa forma, o alegado viés do time de Trust and Safety na Califórnia dificilmente tinha impacto na remoção de perfis falsos se passando por marcas ou anúncios fraudulentos, especialmente. Portanto, a expectativa é não haver grandes alterações nos critérios de avaliação destes casos, independente da nova região em que o time esteja alocado. Porém, não está claro se os times serão também reduzidos, o que ocorreu no X (antigo Twitter) depois da sua aquisição por Elon Musk. 

 

Como a transição não foi detalhada, o impacto sobre o tempo de remoção ou mesmo sobre a efetividade dos takedowns durante esse período ainda é incerto.

 

A expectativa é de que as mudanças tenham maior efeito em critérios de remoção de conteúdos políticos e discurso de ódio. Resta saber se, na prática, a plataforma realmente vai cumprir a promessa de redirecionar seus esforços para as áreas de violação de alta gravidade citadas. Por outro lado, a realocação do time ou qualquer outra questão de organização operacional interna poderá trazer uma possível disrupção na qualidade da resposta para o takedown de perfis e anúncios falsos. 

 

X (antigo Twitter): já passamos por isso antes

 

A aquisição do Twitter por Elon Musk, concluída em outubro de 2022, trouxe uma reestruturação drástica das equipes de Trust and Safety. Estimativas de fontes diversas sugerem entre 50% e 75% de cortes, incluindo integrantes-chave das equipes de moderação e segurança e reduzindo a capacidade de análise aprofundada e ação rápida. O movimento foi reforçado por saídas voluntárias, inclusive de Ella Irwin, líder do time. 

 

Também foi realizada uma revisão das políticas de moderação de conteúdo com ênfase em “liberdade de expressão”, e as regras para bloquear ou suspender contas foram atualizadas. Contas anteriormente banidas por discurso de ódio, spam ou violação sistemática das políticas anteriores foram readmitidas. As políticas relacionadas a “fake news” ou conteúdos enganosos foram amenizadas em alguns aspectos, mas mantiveram restrições a tópicos sensíveis, como desinformação eleitoral ou fraude financeira.

 

A política de verificação de contas (Twitter Blue) passou a ter uma assinatura paga, reduzindo a ligação entre a verificação e a autenticidade da conta. 

Em setembro de 2024, Elon Musk também moveu o X da Califórnia para o Texas, onde suas outras empresas, Starlink e Boring Company, já estão situadas. O estado proíbe a moderação de conteúdos de opinião política em redes sociais e tem um sistema regulatório extremamente amigável a empresas.

 

Impacto observado pela Axur em takedowns no X

 

Em fevereiro de 2023, poucos meses após Musk assumir o controle, a Axur observou picos de aumento expressivo do uptime, ou o tempo entre a notificação da fraude e a efetivação de remoção pela plataforma. Alguns pedidos de remoção também ficaram sem retorno. 

 

Os procedimentos para denúncias foram ajustados, passando a utilizar o canal específico para Trademark, ou marca registrada, em vez do canal de personificação. Isto quer dizer que a plataforma passou a exigir que o perfil que estava se passando por uma marca estivesse ativo publicamente, ou seja, não eram mais aceitas denúncias baseadas em mensagens privadas ou tweets protegidos para esse tipo de caso.

 

Em maio, as médias caíram para próximo das anteriores. Outros picos no uptime foram observados também em setembro de 2023 e janeiro de 2024, voltando à estabilidade em abril de 2024 e mantendo-se na média anterior a partir de então. No entanto, também percebemos uma queda no número de incidentes a partir de agosto de 2023, o que pode refletir a redução de audiência geral da plataforma. Não houve redução na taxa de sucesso dos takedowns. 

 

Cenário regulatório e reações governamentais às medidas da Meta

 

O governo brasileiro expressou preocupação com as mudanças anunciadas, destacando que elas podem impactar a segurança pública e os direitos das crianças. A Advocacia-Geral da União e o Ministério Público notificaram a Meta para que forneça esclarecimentos sobre as novas diretrizes e como se aplicarão ao Brasil. União Europeia, Canadá, Austrália e diversos órgãos como a ONU também demonstraram preocupação em relação às medidas. 

 

A tensão política gerada pode acarretar na implementação de regulamentações mais rígidas. Não está excluída a possibilidade de mais governos decidirem por sanções – inclusive tributárias – ou pelo bloqueio das plataformas caso não cumpram as legislações locais. Em setembro de 2024, por exemplo, o Brasil realizou o bloqueio do X pelo não cumprimento de decisões judiciais (a plataforma só voltou a operar no país após cumprir as exigências e, assim, regularizar sua situação). 

 

Por outro lado, o apetite ao risco das big techs parece estar aumentando: Zuckerberg também anunciou planos de colaboração com o novo governo Trump para combater políticas de outros países que, em sua visão, são considerados censores das plataformas americanas. Vale lembrar: isso ocorre no contexto em que Elon Musk, dono do X, foi nomeado por Trump para liderar o Departamento de Eficiência Governamental dos Estados Unidos.

 

Como se preparar e quais boas práticas para notificar perfis falsos e anúncios no Facebook e Instagram

 

As novidades não alteram as diretrizes sobre como as empresas devem relatar conteúdo malicioso à Meta, mas reforçam as boas práticas para que as notificações sejam eficientes. Mais do que nunca, as plataformas irão considerar notificações feitas para os canais corretos, com a mensagem correta. Essa expertise em como notificar pode ser o elo que fará a diferença para conseguir remover conteúdos maliciosos das redes sociais. 

 

O primeiro passo pode ser contar com uma automatização da detecção de incidentes com marcas ou pessoas executivas no Facebook e Instagram. O uso de Inteligência Artificial para detectar atributos de risco e classificar ameaças é especialmente benéfico para a identificação da mensagem correta. Isto pode ser feito por equipes internas de segurança da informação ou via empresas especializadas em cibersegurança externa, como a Axur. Neste momento, contar com esse tipo de tecnologia sofisticada é um diferencial para apoiar a proteção da sua marca e dos seus clientes. 

 

Como a inteligência artificial pode melhorar a eficácia dos programas de takedown

 

O uso de IA torna-se ainda mais importante por duas razões: 

 

  1. O período entre a detecção de um incidente e o envio da notificação é o que pode ser controlado por quem notifica. Depois, o processo fica com a plataforma (neste caso, a Meta) e não é possível controlar o tempo de atuação dos times de análise. Por isso, é importante que o processo de análise para solicitar um takedown aconteça o quanto antes, com a identificação rápida de indícios de fraude. Em outras palavras, quanto antes iniciar o tratamento, mais rápido a denúncia poderá ser acatada e resolvida.

  2. Para otimização de canais e mensagem, ou seja, como notificar e para quem notificar. Como não há clareza sobre a redução ou não dos times de Trust and Safety da Meta, é necessário redobrar a atenção na assertividade da notificação, reduzindo ao máximo as chances de ruído que possa alongar o processo de análise da plataforma. Por exemplo, adicionar evidências comprovando a validade dos critérios – o que pode ser realizado pela IA. A Axur conta ainda com um sistema Takedown Safety, que impede o disparo de notificações erradas – contribuindo com a manutenção de um bom score de reporter para a Meta.

Outro ponto para estar de olho é que mudanças nas plataformas sociais como a da Meta, principalmente quando envolvidas em cenários de motivação política, podem levar uma parcela de usuários a abandonarem as mesmas e buscarem alternativas. Nos Estados Unidos, após as mudanças anunciadas por Zuckerberg, as buscas no Google sobre como excluir a conta do Facebook aumentaram em 5.000%. 

 

Em 2024, a plataforma BlueSky recebeu mais de um milhão de novos usuários no Brasil em três dias, mesmo antes do bloqueio do X entrar em vigor. É importante permanecer atento ao crescimento de novas plataformas, pois o cibercrime também busca estar onde o público está – esse movimento foi muito claro com a ascensão de redes como o TikTok, por exemplo. Por isso, é fundamental conseguir se adequar rapidamente para monitorar infrações utilizando marcas indevidamente e intervir com pedidos de remoção pelos fluxos corretos nas novas plataformas. 

 

O uso de IA para automatizar o fluxo de notificações, principalmente em plataformas novas, como BlueSky, é uma grande vantagem. No último ano vimos o crescimento das tecnologias de agentes para IA, ou agentic AI, que trazem uma capacidade essencial de adaptação quando existe alguma alteração em formulários de notificação, ou modificações em API, sem que seja necessário escrever muitos códigos. A plataforma da Axur já considera o uso de agentic AI em notificações, sendo a primeira (e até o momento, a única) empresa do mundo a usar esse tipo de tecnologia para takedowns. 

 

Conclusões 

 

As mudanças nas políticas de moderação da Meta sinalizam uma reorientação clara das prioridades da plataforma, mas, no que diz respeito a fraudes e golpes, a expectativa é de que essas atividades continuem sendo tratadas como violações de alta gravidade. Assim, não devem haver alterações significativas nos processos de takedown para esses casos. No entanto, a realocação do time de Trust and Safety e a possibilidade de redução de equipes, como aconteceu no X, trazem incertezas sobre os desdobramentos dessas ações no futuro.

 

Outro ponto de atenção é o possível impacto nas bases de usuários da Meta. Mudanças significativas nas políticas de moderação, especialmente quando envolvem debates sobre liberdade de expressão, têm historicamente levado a quedas de público ou migrações para outras plataformas. A ascensão de novas redes, como BlueSky e TikTok, reforça que os cibercriminosos estão sempre se movendo à procura do público, o que exige um monitoramento ágil e adaptável.

 

Por isso, o uso de Inteligência Artificial se destaca como uma ferramenta essencial para empresas que precisam proteger suas marcas em ambientes digitais. Soluções que automatizam a detecção de incidentes, agilizam notificações e se adaptam rapidamente a mudanças nas plataformas, como as oferecidas pela Axur, tornam-se um diferencial estratégico. 

 

Se você quer saber mais sobre o impacto das novas políticas da Meta ou está enfrentando desafios com fraudes e perfis falsos, estamos aqui para ajudar. Entre em contato e conte com nosso suporte especializado.

 

 

F.A.Q. – Perguntas Frequentes

 

1. O que mudou nas políticas de moderação da Meta?

A Meta encerrou seu programa de checagem de fatos, substituindo-o por um modelo colaborativo chamado "Notas da Comunidade". Além disso, a moderação focará apenas em conteúdos ilegais ou de alta gravidade, como terrorismo, exploração infantil, fraudes e golpes.

 

2. As mudanças impactam os processos de takedown de conteúdos fraudulentos?

Não diretamente. Fraudes e golpes continuam sendo tratados como violações de alta gravidade pela Meta, mantendo a prioridade para remoção. No entanto, a realocação do time de Trust and Safety para o Texas pode gerar incertezas no tempo e na consistência das respostas.

 

3. O que é o programa de Trust and Safety da Meta?

É o setor responsável por aplicar políticas relacionadas à moderação de conteúdo nas plataformas da Meta, como Facebook, Instagram e Threads. Ele garante a remoção de conteúdos que violem os padrões da comunidade e as leis aplicáveis.

 

4. O Facebook e Instagram serão bloqueados no Brasil?

Até o momento, não há indicativos de que isso acontecerá. No entanto, o governo brasileiro demonstrou preocupação com as mudanças e solicitou esclarecimentos à Meta, o que pode levar a medidas futuras caso as plataformas não cumpram as legislações locais.

 

5. Como garantir que as fraudes serão removidas na Meta?

É essencial enviar notificações bem embasadas, utilizando os canais corretos e apresentando evidências claras. Automatizar o processo de detecção e notificação, com o uso de tecnologias de Inteligência Artificial da plataforma Axur, também pode aumentar a eficácia.

 

6. O que as empresas devem fazer diante das mudanças?

É fundamental investir em soluções tecnológicas, como as da plataforma Axur, que automatizam e agilizam os processos de identificação e notificação de incidentes, garantindo uma resposta eficaz, mesmo em um cenário de mudanças constantes.