
En mayo, el presidente estadounidense Donald Trump promulgó la Take It Down Act, una ley diseñada para facilitar la eliminación de contenido íntimo o sexual publicado sin consentimiento en plataformas en línea —especialmente redes sociales y otros canales basados principalmente en contenido generado por los usuarios.
La ley se aplica tanto a imágenes auténticas como a las manipuladas o generadas digitalmente, incluidas las creadas con inteligencia artificial. Representa, por tanto, un paso clave en la lucha contra los deepfakes íntimos: contenido hiperrealista creado con IA que simula imágenes íntimas de personas identificables, sin su autorización.
Trump destacó este problema durante la firma de la ley: "Con el auge de la generación de imágenes mediante IA, innumerables mujeres han sido acosadas con deepfakes íntimos y otros contenidos explícitos distribuidos sin su consentimiento. Esto está... mal, y es terriblemente grave", declaró el presidente.
¿Qué cambia con la nueva ley?
El cambio principal: las plataformas están obligadas a eliminar el contenido denunciado en un plazo máximo de 48 horas. La Comisión Federal de Comercio (FTC) será responsable de supervisar el cumplimiento.
La ley también tipifica como delito federal amenazar con publicar imágenes íntimas —sean reales o generadas con IA.
La Take It Down Act fue aprobada en la Cámara de Representantes con un respaldo casi unánime: 409 votos a favor y solo 2 en contra. Este fuerte apoyo podría allanar el camino para futuras regulaciones similares.
¿Cuáles son las sanciones?
La FTC supervisará a las plataformas en línea y se encargará de hacer cumplir la ley. Mientras cumplan con las obligaciones establecidas, no se les aplicarán sanciones.
En cambio, quienes publiquen este tipo de contenido enfrentarán penas específicas. Estas varían según la edad de la víctima (mayor o menor de 18 años) y si la imagen es auténtica o generada artificialmente.
Por publicar imágenes íntimas (auténticas o creadas con IA):
-
Hasta 2 años de prisión si la víctima es mayor de edad.
-
Hasta 3 años de prisión si la víctima es menor de 18 años.
Por amenazar con difundir deepfakes íntimos:
-
Hasta 18 meses de prisión si la víctima es mayor de edad.
-
Hasta 30 meses de prisión si la víctima es menor de 18 años.
Todas las penas pueden incluir también multas económicas.
Excepciones previstas
No se considera infracción si el contenido se comparte con fines médicos o para denunciar un delito. Tampoco se incurre en infracción si la persona retratada difunde la imagen por sí misma o da su consentimiento explícito para su publicación.
Sin embargo, la ley exige un consentimiento específico para la distribución. En otras palabras: incluso si alguien acepta la creación de una imagen íntima por medios digitales, eso no implica autorización automática para su publicación o circulación.
Cómo funciona el proceso de eliminación
Las plataformas sujetas a la Take It Down Act deben ofrecer un aviso visible o un enlace claro que informe a los usuarios sobre el proceso para solicitar la eliminación de contenido íntimo no autorizado. Este aviso debe detallar las responsabilidades de la plataforma y explicar cómo presentar una solicitud válida.
Un aviso válido debe incluir:
-
Una firma física o electrónica de la persona que presenta la solicitud (o su representante autorizado).
-
Información suficiente para que la plataforma localice el contenido (por ejemplo, una copia del material, enlaces o referencias).
-
Una breve explicación de por qué el contenido no está autorizado.
-
Información de contacto para que la plataforma pueda comunicarse con el solicitante o su representante.
Aunque muchas plataformas ya disponen de procesos para eliminar contenido, es poco común que exijan firmas verificables. Esta ley eleva ese estándar.
Además de eliminar el contenido denunciado en un máximo de 48 horas, la ley exige que las plataformas hagan un esfuerzo razonable por identificar y eliminar copias idénticas conocidas. Con millones de imágenes subidas diariamente, esto requerirá soluciones técnicas capaces de localizar archivos visualmente similares a gran escala.
Las plataformas disponen de un año desde la promulgación de la ley para cumplir plenamente con sus disposiciones.
Deepfakes íntimos y fraude corporativo
Ya se han registrado numerosos casos de delincuentes que han generado imágenes, audios o vídeos falsos de celebridades, figuras públicas y ejecutivos para cometer estafas o dañar la reputación de empresas. En algunos casos, estos deepfakes incluso se han promocionado como anuncios pagados en plataformas masivas.
Aunque estos incidentes son cada vez más frecuentes, los deepfakes que no representan a personas identificables en contextos íntimos no están cubiertos por la Take It Down Act.
Eso no significa que las empresas no tengan herramientas a su disposición. Muchos contenidos fraudulentos generados con IA infringen las políticas y los términos de servicio de las plataformas. Esto significa que las organizaciones pueden solicitar su eliminación utilizando los canales estándar de denuncia.
Al actuar proactivamente, las empresas pueden proteger su marca, a sus ejecutivos y su reputación frente a contenidos maliciosos o engañosos.
Consulta nuestro E-book sobre Deepfakes y Fraude Corporativo para descubrir cómo estas amenazas afectan la reputación de marca y la confianza del usuario, y qué pasos concretos puedes tomar para eliminar contenido perjudicial y proteger tu imagen.

Expertos en crear contenido relevante de ciberseguridad externa para hacer de internet un lugar más seguro.