Sim, é isso mesmo: só no primeiro trimestre de 2019, o Facebook removeu 2,2 bilhões de contas falsas. O número quase duplicou em comparação com o último trimestre de 2018 (quando 1,2 bilhão de contas foram removidas) – e isso significa que a rede social de Zuckerberg está tomando medidas cada vez mais duras contra essas infrações.
Como (e por que) o Facebook remove tantas contas falsas?
A base de qualquer ação de remoção feita pelo Facebook na plataforma é, obviamente, o descumprimento das normas vigentes por lá. Você pode até ter passado pelas instruções sem ter lido sequer uma palavra quando fez seu cadastro, mas as regras existem e são essenciais para se ter uma boa convivência na rede social. É verdade que falar sobre isso pode parecer utópico, mas o assunto é bem sério: todo trimestre, o pessoal do Facebook mostra como foram feitas ações de remoção de conteúdo em seu Community Standards Enforcement Report.
OK. Mas o que é exatamente uma conta falsa?
Segundo o item 16 - Spam dos Padrões da Comunidade do Facebook, são considerados (e removidos) como contas falsas aqueles perfis que tentam:
- Passar-se por ou fingir ser uma empresa, organização, figura pública ou pessoa física
- Tentar forçar conexões, criar conteúdo ou enviar mensagens às pessoas
Essas regrinhas aí em cima estão todas dentro do conjunto de itens chamado Integridade e autenticidade, que inclui também o número 17 - Representação falsa. Nessa parte, eles falam que o comportamento não autêntico de um usuário é, entre outros, a criação de contas falsas, com nomes falsos ou que tentem enganar as pessoas das mais diversas formas.
Encontrando infrações antes de denúncias
Proatividade parece ser algo que não falta lá no Facebook: de todas as contas removidas no primeiro trimestre, só 0,2% delas foram reportadas por usuários – e, no último trimestre de 2018, esse número foi 0,3%. Mais uma vez, isso mostra como o Facebook está cada vez mais engajado em observar os padrões de criação de contas falsas para, depois, poder excluí-las o mais rápido possível.
Nem só contas falsas: as outras remoções de conteúdo
O mais recente relatório Community Standards Enforcement possui algumas novidades em comparação com as versões anteriores: essa é a primeira vez em que o Facebook mostra como funciona o processo de apelação (quando um usuário recorre da decisão de remoção feita pela rede social) e publica dados sobre a correção de erros de remoções indevidas. Também foram divulgadas informações inéditas sobre a categoria de artefatos que são regulados por legislação, como drogas e armas. Além disso, não podemos esquecer que por lá acontecem vendas ilegais e vazamentos de dados.
Além da seção de “contas falsas”, existem outras oito categorias no relatório, que passam por propagandas terroristas, discursos de ódio, bullying, pedofilia e outros tipos mais pesados de infrações. Mas o maior número, junto com “contas falsas”, é o de Spam.
Malditos spams!
Spam é um termo genérico para definir conteúdo não autêntico ou comportamento que viola os padrões da comunidade do Facebook. Mas, geralmente, a intenção é sempre o ganho financeiro. No relatório, os números de remoção de spam são bem interessantes: entre janeiro e março de 2019, foram 1,8 bilhão de remoções – aliás, esse é o mesmo número do trimestre anterior!
E, assim como os outros tipos de infrações, as remoções de Spam estão crescendo exponencialmente: em comparação com o segundo trimestre de 2018, quando o total de Spams detectados foi de 959 milhões, os dados mais recentes mostram que o número dobrou (!) em um período equivalente a somente seis meses.
Quanto a alegações feitas por usuários que disseram ter sido indevidamente marcados como Spam, o primeiro trimestre de 2019 contabilizou 20,8 milhões de apelações. Só que o número de peças que foram de fato restauradas após apelações foi de somente 5,7 milhões. Em outras palavras: não basta reclamar – o tribunal do Facebook está a todo vapor separando o que tem fundamento do que é, de fato, errado.
Qual o futuro da remoção de conteúdo?
Como o Facebook tem mostrado muito bem, mais e mais conteúdos abusivos vão ser removidos da plataforma conforme mais refinados ficam os mecanismos e estratégias de identificação das infrações. E isso parece ser uma tendência nas gigantes da internet: a Google já está até utilizando técnicas de machine learning para encontrar as coisas que violam suas políticas de conteúdo.
Se você deseja zelar pela reputação de sua marca ou empresa em um ambiente tão extenso como a internet, uma boa ideia pode ser investir em monitoramento e estratégias de proteção. Aqui na Axur, temos diversas soluções para encontrar e remover riscos digitais com uma ajudinha de nossos robôs – e uma boa dica é o Uso Indevido de Marca, que foca em contas falsas e usos abusivos.
Jornalista formado pela UFRGS e Content Creator da Axur, responsável pelo Deep Space e por atividades de imprensa. Também já analisei dados e fraudes na equipe de Brand Protection aqui na Axur. Mas, em resumo: meu brilho nos olhos é trabalhar com tecnologia, informação e conhecimento juntos!