Go back Tendências & Notícias

Take It Down: Trump sanciona nova lei para remoção de deepfakes íntimos

Por Time de Conteúdo em 26 de Maio de 2025

O presidente dos Estados Unidos, Donald Trump, sancionou em maio o Take It Down Act, uma legislação que visa facilitar a derrubada (takedown) de materiais explícitos e íntimos publicados em plataformas online, principalmente as redes sociais e outros canais cujo conteúdo é majoritariamente criado por usuários.

A lei vale tanto para imagens autênticas como para imagens criadas por manipulação digital, inclusive por inteligência artificial. Por esta razão, a lei inova no combate aos deepfakes — as imagens altamente realistas e convincentes que podem ser facilmente geradas por IA.

O presidente Trump inclusive destacou essa questão quando sancionou a lei. "Com a popularização da geração de imagens por IA, inúmeras mulheres foram ameaçadas com deepfakes e outras imagens explícitas distribuídas contra sua vontade. Isso é... errado, é terrivelmente errado", disse ele.

A principal novidade é a exigência de que as plataformas removam o conteúdo infrator em no máximo 48 horas após uma denúncia. O cumprimento desta regra deverá ser monitorado pelo Federal Trade Commission (FTC).

Pela nova lei também, agora também é crime federal ameaçar a publicação de imagens íntimas, sejam elas autênticas ou não.

O Take It Down Act foi aprovado pelos deputados norte-americanos quase que por unanimidade, com 409 votos favoráveis e 2 contrários. Esse apoio expressivo pode abrir a porta para que outras regulamentações semelhantes venham a ser apresentadas e aprovadas pelos legisladores.

Quais são as punições?

O Federal Trade Commission (FTC) deve fiscalizar as plataformas online e o cumprimento da legislação. Desde que as plataformas atendam aos requisitos, elas não serão penalizadas. 

O que a lei define explicitamente são punições para os indivíduos que divulgarem o material. As penas variam conforme a idade da vítima (se é uma pessoa adulta ou menor de 18 anos) e se a ameaça envolve imagens autênticas ou geradas por computador.

Na publicação de imagens autênticas ou não, ou em caso de ameaça de divulgação de imagem íntima autêntica, as penas são as seguintes:

  • Até 2 anos de detenção se a vítima for uma pessoa adulta;
  • Até 3 anos de detenção se a vítima for menor de idade.

Para ameaça de divulgação de conteúdo manipulado digitalmente ou gerado por IA (imagens não autênticas):

  • Até 18 meses de detenção se a vítima for uma pessoa adulta;
  • Até 30 meses de detenção se a vítima for menor de 18 anos.

Todas as punições também podem incluir multa.

A lei traz exceções e prevê que não há infração quando a imagem foi compartilhada com o intuito de denunciar um crime ou para fins médicos. Caso a imagem seja divulgada pela própria pessoa retratada ou a divulgação tenha sido autorizada, também não haverá infração.

Contudo, a regulamentação esclarece que distribuir uma imagem requer um consentimento específico. Dessa forma, mesmo que alguém autorize a criação de uma imagem íntima por meios digitais, isto não deve ser entendido como uma autorização para distribuir ou compartilhar a imagem criada.

O processo de denúncia

As plataformas que estiverem sujeitas ao Take It Down Act deverão incluir algum aviso ou link que informe a existência do processo de remoção de conteúdo íntimo não autorizado, com um detalhamento das responsabilidades da plataforma e instruções de como o usuário pode realizar a denúncia do material.

A notificação para remoção do conteúdo (takedown) deve ter os seguintes elementos:

  • Uma assinatura física ou eletrônica do solicitante ou do seu representante autorizado;
  • Dados para que plataforma possa localizar o material infrator (cópia do material, links e outras referências, por exemplo);
  • Descrição breve explicando por que o material não é autorizado;
  • Informações de contato para que a plataforma possa se comunicar com o denunciante ou seu representante.

Os requisitos podem trazer mudanças para o processo de takedown. Embora praticamente todas as plataformas tenham processos para remoção de conteúdo, raramente são recebidas denúncias com assinaturas identificadas (sejam elas físicas ou digitais).

Além de remover a imagem denunciada em até 48 horas, a lei prevê que a plataforma deve realizar um "esforço razoável" para localizar outras imagens semelhantes e infratoras. Com milhões de imagens novas sendo publicadas diariamente, as plataformas terão de buscar uma solução técnica para identificar essas imagens semelhantes rapidamente.

As plataformas têm um ano para se adequarem aos requisitos do Take It Down Act após a sanção.

Lei brasileira

Nos Estados Unidos, o Take It Down Act deve harmonizar algumas legislações estaduais e auxiliar o combate à divulgação de conteúdo íntimo sem autorização das pessoas retratadas. No Brasil, onde não há leis penais estaduais, alguns cenários já podem ser considerados crimes.

Em abril de 2025, o presidente Luiz Inácio Lula da Silva sancionou a lei 15.123/2025 que cria um agravante para o crime de violência psicológica contra a mulher quando a ameaça é cometida "mediante o uso de inteligência artificial ou qualquer outro recurso tecnológico que altere a imagem ou o som da vítima".

A publicação de imagens de nudez sem consentimento foi criminalizada há mais tempo, pela lei 13.718/2018. No entanto, essa lei prevê o crime apenas quando há a divulgação de "registro audiovisual", não havendo uma criminalização específica para imagens forjadas.

Caso a vítima retratada seja menor de 18 anos, no entanto, o Estatuto da Criança e Adolescente prevê desde 2008 que é crime "simular a inclusão de criança ou adolescente" em certos tipos de conteúdo explícito por meio de adulteração digital.

Há outros projetos de lei em tramitação no Congresso para criminalizar especificamente a criação ou divulgação de imagens manipuladas por inteligência artificial. O Take It Down Act pode facilitar a criação de caminhos semelhantes para a denúncia de material infrator, o que ainda não existe.

Uso de deepfakes em fraudes corporativas

Já existem diversos casos em que criminosos geraram imagens, áudios ou vídeos de personalidades, pessoas famosas e executivos para aplicar golpes ou manchar a reputação de empresas. Essas fraudes geradas por inteligência artificial são inclusive impulsionadas como publicidade em algumas plataformas.

Apesar da recorrência destes incidentes, deepfakes de outros tipos (que não retratam pessoas em situações íntimas ou pessoas identificáveis) não são cobertos pelo Take It Down Act.

Isso não significa que não há nada a ser feito. Muitos conteúdos fraudulentos gerados por IA violam os termos de uso e políticas das plataformas e redes sociais, de modo que é possível solicitar sua remoção através do processo de Takedown. Assim, as empresas podem atuar de forma assertiva para evitar que suas marcas, executivos ou representantes apareçam em conteúdo inautêntico para enganar os consumidores.

Confira o nosso ebook sobre Deepfakes e fraudes corporativas para saber mais como os deepfakes impactam a reputação e a experiência dos usuários e conhecer os caminhos que já existem para remover esse tipo de conteúdo e resguardar sua marca e sua imagem.