Las nuevas políticas de Meta prometen cambiar la forma en que se modera el contenido en sus plataformas. Descubre qué significa esto para las empresas y su impacto en la eliminación de fraudes y estafas.
Puntos destacados del artículo:
El 7 de enero de 2025, el CEO de Meta, Mark Zuckerberg, anunció cambios significativos en su programa de Trust and Safety, encargado de aplicar políticas relacionadas con la desinformación y otras violaciones a los estándares de la comunidad. Estas modificaciones impactarán directamente a las redes sociales Facebook, Instagram y Threads, algunas de las plataformas más populares.
Con las actualizaciones, la compañía busca "restaurar la libertad de expresión en las plataformas", según el comunicado de Zuckerberg. El CEO afirmó que esto corregirá errores en los filtros que estarían censurando contenidos de manera indebida.
Publicación de Zuckerberg en Threads dónde detalla los cambios en las políticas de Meta.
Zuckerberg argumenta que esto permitirá enfocar esfuerzos en filtrar contenido ilegal, citando actividades delictivas como tráfico de drogas, terrorismo y explotación infantil. Sin embargo, también admitió que, con los cambios, la plataforma "detectará menos contenido perjudicial", un intercambio aceptable para reducir la censura.
¿Pero qué cambia exactamente en las políticas de Meta y por qué es relevante para su empresa?
La eliminación de la verificación de hechos está más relacionada con la libertad de expresión defendida por Zuckerberg, ya que estos equipos se encargaban de filtrar desinformación en las publicaciones de las plataformas.
Los casos de uso indebido de marcas, sin embargo, plantean dudas sobre cómo estos cambios podrían afectar los procesos de eliminación de contenido malicioso, conocidos como takedowns.
Al cambiar el enfoque de los filtros para centrarse en violaciones de alta gravedad, Meta incluye fraudes y estafas en esta categoría. En su discurso, el CEO afirmó: "Seguiremos enfocando estos sistemas para combatir violaciones ilegales y de alta gravedad, como terrorismo, explotación sexual infantil, drogas, fraudes y estafas."
El uso no autorizado de marcas puede considerarse una actividad ilegal, reforzando la inclusión de casos como perfiles y anuncios falsos que suplantan identidades corporativas. En estos casos, la denuncia más común es por violación de derechos de propiedad intelectual para eliminar perfiles que se apropian de elementos distintivos de una marca, como el nombre o logotipo, en beneficio propio.
La DMCA (Digital Millennium Copyright Act, Ley de Derechos de Autor del Milenio Digital) es una ley estadounidense que exime a los proveedores digitales de responsabilidad por violación de derechos de autor si eliminan rápidamente el contenido denunciado. Como empresa estadounidense, Meta está sujeta a estas reglas, lo que exige una acción rápida ante denuncias correctas y fundamentadas. En muchos casos de perfiles y anuncios fraudulentos, el uso de comerciales, palabras e imágenes protegidas busca generar credibilidad para las páginas falsas.
Por tanto, el supuesto sesgo del equipo de Trust and Safety en California difícilmente impactaba en la eliminación de perfiles falsos que suplantan marcas o anuncios fraudulentos. No obstante, no está claro si los equipos serán también reducidos, como ocurrió en X (antes Twitter) tras su adquisición por Elon Musk.
Como la transición no fue detallada, el impacto sobre el tiempo de eliminación o incluso sobre la efectividad de los takedowns durante este período sigue siendo incierto.
Se espera que los cambios tengan mayor efecto en los criterios para eliminar contenido político y discursos de odio. Queda por ver si, en la práctica, la plataforma realmente cumplirá su promesa de redirigir sus esfuerzos hacia las áreas de violaciones de alta gravedad mencionadas. Por otro lado, la reubicación del equipo o cualquier otra cuestión organizacional interna podría causar una posible disrupción en la calidad de la respuesta para la eliminación de perfiles y anuncios falsos.
La adquisición de Twitter por Elon Musk, concluida en octubre de 2022, trajo una reestructuración drástica de los equipos de Trust and Safety. Estimaciones de diversas fuentes sugieren entre un 50% y un 75% de recortes, incluyendo integrantes clave de los equipos de moderación y seguridad, lo que redujo la capacidad de análisis profundo y acción rápida. Este movimiento fue reforzado por salidas voluntarias, incluida Ella Irwin, líder del equipo.
También se realizó una revisión de las políticas de moderación de contenido con énfasis en la "libertad de expresión" y se actualizaron las reglas para bloquear o suspender cuentas. Cuentas previamente prohibidas por discurso de odio, spam o violaciones sistemáticas de las políticas anteriores fueron readmitidas. Las políticas relacionadas con "fake news" o contenido engañoso fueron suavizadas en algunos aspectos, aunque mantuvieron restricciones en temas sensibles como desinformación electoral o fraude financiero.
La política de verificación de cuentas (Twitter Blue) pasó a ser mediante una suscripción paga, reduciendo el vínculo entre la verificación y la autenticidad de la cuenta.
En septiembre de 2024, Elon Musk también trasladó X de California a Texas, donde ya se encuentran sus otras empresas, Starlink y Boring Company. El estado prohíbe la moderación de contenidos de opinión política en redes sociales y cuenta con un sistema regulatorio extremadamente favorable para las empresas.
En febrero de 2023, pocos meses después de que Musk tomara el control, Axur observó picos significativos en el tiempo de respuesta entre la notificación de fraude y la eliminación efectiva por la plataforma. Algunos pedidos de eliminación también quedaron sin respuesta.
Los procedimientos para denuncias fueron ajustados, pasando a utilizar el canal específico para marcas registradas (Trademark) en lugar del canal de suplantación de identidad. Esto significa que la plataforma comenzó a exigir que el perfil que estaba suplantando a una marca estuviera activo públicamente, es decir, ya no se aceptaban denuncias basadas en mensajes privados o tweets protegidos para este tipo de casos.
En mayo de 2023, las medias cayeron cerca de los niveles anteriores, pero otros picos en el tiempo de eliminación se observaron también en septiembre de 2023 y enero de 2024, estabilizándose nuevamente en abril de 2024. A pesar de esto, también se notó una reducción en el número de incidentes reportados desde agosto de 2023, lo que podría reflejar la disminución de audiencia general en la plataforma. No hubo reducción en la tasa de éxito de los takedowns.
Unión Europea, Canadá, Australia, Brasil y diversos organismos como la ONU expresaron preocupación por los cambios anunciados, destacando que podrían impactar la seguridad pública y los derechos de la infancia. En Brasil, la Abogacía General de la Unión y el Ministerio Público notificaron a Meta para que proporcione aclaraciones sobre las nuevas directrices y cómo se aplicarán en el país.
La tensión política generada podría llevar a la implementación de regulaciones más estrictas. No se descarta la posibilidad de que más gobiernos decidan imponer sanciones—incluso tributarias—o bloquear las plataformas si no cumplen con las legislaciones locales. En septiembre de 2024, por ejemplo, Brasil bloqueó el acceso a X por no acatar decisiones judiciales (la plataforma solo volvió a operar en el país tras cumplir con las exigencias y regularizar su situación).
Por otro lado, parece que el apetito por el riesgo de las big techs está aumentando: Zuckerberg también anunció planes de colaboración con el nuevo gobierno de Trump para combatir políticas de otros países que, en su opinión, censuran las plataformas estadounidenses. Vale la pena recordar: esto ocurre en un contexto donde Elon Musk, propietario de X, fue nombrado por Trump como líder del Departamento de Eficiencia Gubernamental de Estados Unidos.
Las novedades no alteran las directrices sobre cómo las empresas deben reportar contenido malicioso a Meta, pero refuerzan la importancia de las buenas prácticas para que las notificaciones sean eficaces. Más que nunca, las plataformas considerarán las denuncias realizadas a través de los canales adecuados, con mensajes claros y bien fundamentados. Esta experiencia puede marcar la diferencia para lograr la eliminación de contenidos maliciosos en redes sociales.
El primer paso puede ser implementar la automatización en la detección de incidentes relacionados con marcas o ejecutivos de altos mandos en Facebook e Instagram. El uso de inteligencia artificial para identificar atributos de riesgo y clasificar amenazas resulta especialmente beneficioso para elaborar mensajes precisos. Esto puede ser realizado por equipos internos de seguridad de la información o mediante empresas especializadas en ciberseguridad externa, como Axur. Contar con tecnología sofisticada en este momento se convierte en un factor clave para proteger su marca y a sus clientes.
El uso de IA es fundamental por dos razones principales:
Otro punto a tener en cuenta es que los cambios en plataformas sociales como las de Meta, especialmente cuando están relacionados con escenarios de motivación política, pueden llevar a que una parte de los usuarios las abandone y busque alternativas. En Estados Unidos, tras los cambios anunciados por Zuckerberg, las búsquedas en Google sobre cómo eliminar la cuenta de Facebook aumentaron un 5.000%.
En 2024, la plataforma BlueSky ganó más de un millón de nuevos usuarios en Brasil en solo tres días, incluso antes de que entrara en vigor el bloqueo de X. Es importante estar atentos al crecimiento de nuevas plataformas, ya que el cibercrimen también busca estar donde está el público. Este movimiento fue muy evidente con el auge de redes como TikTok, por ejemplo. Por ello, es fundamental adaptarse rápidamente para monitorear infracciones relacionadas con el uso indebido de marcas e intervenir con solicitudes de eliminación a través de los canales correctos en estas nuevas plataformas.
El uso de IA para automatizar el flujo de notificaciones, especialmente en plataformas nuevas como BlueSky, es una gran ventaja. En el último año, hemos visto el crecimiento de tecnologías de agentes de IA, o agentic AI, que aportan una capacidad esencial de adaptación ante cambios en formularios de notificación o modificaciones en API, sin necesidad de escribir grandes cantidades de código. La plataforma de Axur ya contempla el uso de agentic AI en notificaciones, siendo la primera (y hasta el momento, la única) empresa del mundo en usar este tipo de tecnología para takedowns.
Los cambios en las políticas de moderación de Meta señalan una clara reorientación de las prioridades de la plataforma. Sin embargo, en lo que respecta a fraudes y estafas, se espera que estas actividades continúen siendo tratadas como violaciones de alta gravedad. Por lo tanto, no deberían ocurrir cambios significativos en los procesos de takedown para estos casos. No obstante, la reubicación del equipo de Trust and Safety y la posible reducción de personal, como ocurrió en X, generan incertidumbre sobre los resultados de estas acciones en el futuro.
Otro punto de atención es el posible impacto en la base de usuarios de Meta. Cambios significativos en las políticas de moderación, especialmente cuando involucran debates sobre libertad de expresión, históricamente han llevado a disminuciones de audiencia o migraciones hacia otras plataformas. El crecimiento de nuevas redes, como BlueSky y TikTok, refuerza que los cibercriminales siempre se mueven hacia donde está el público, lo que exige un monitoreo ágil y adaptable.
Por ello, el uso de Inteligencia Artificial se destaca como una herramienta esencial para las empresas que necesitan proteger sus marcas en entornos digitales. Soluciones que automatizan la detección de incidentes, agilizan las notificaciones y se adaptan rápidamente a los cambios en las plataformas, como las ofrecidas por Axur, se convierten en un diferenciador estratégico.
Si desea saber más sobre el impacto de las nuevas políticas de Meta o está enfrentando desafíos relacionados con fraudes y perfiles falsos, estamos aquí para ayudar. Póngase en contacto y cuente con nuestro soporte especializado.
1. ¿Qué cambió en las políticas de moderación de Meta?
Meta finalizó su programa de verificación de hechos, reemplazándolo por un modelo colaborativo llamado "Notas de la Comunidad". Además, la moderación se enfocará únicamente en contenidos ilegales o de alta gravedad, como terrorismo, explotación infantil, fraudes y estafas.
2. ¿Los cambios impactan los procesos de takedown de contenidos fraudulentos?
No directamente. Fraudes y estafas continúan siendo tratados como violaciones de alta gravedad por Meta, manteniendo su prioridad para la eliminación. Sin embargo, la reubicación del equipo de Trust and Safety a Texas puede generar incertidumbre sobre los tiempos y la consistencia de las respuestas.
3. ¿Qué es el programa de Trust and Safety de Meta?
Es el área responsable de aplicar políticas relacionadas con la moderación de contenido en las plataformas de Meta, como Facebook, Instagram y Threads. Su función es garantizar la eliminación de contenidos que violen los estándares de la comunidad y las leyes aplicables.
4. ¿Cómo garantizar que los fraudes sean eliminados en Meta?
Es esencial enviar notificaciones bien fundamentadas, utilizando los canales correctos y presentando evidencias claras. Automatizar el proceso de detección y notificación mediante tecnologías de Inteligencia Artificial de la plataforma Axur también puede aumentar la eficacia.
5. ¿Qué deben hacer las empresas ante los cambios?
Es fundamental invertir en soluciones tecnológicas, como las de la plataforma Axur, que automatizan y agilizan los procesos de identificación y notificación de incidentes, garantizando una respuesta efectiva incluso en un escenario de constantes cambios.