Desinformação e Deepfakes na Era da IA: Como se proteger legalmente em 2025

A linha entre o real e o artificial nunca foi tão tênue. Em 2025, a desinformação e os chamados “deepfakes” – vídeos, áudios e imagens ultrarrealistas gerados por Inteligência Artificial (IA) que simulam pessoas e eventos – não são apenas curiosidades tecnológicas; eles representam uma ameaça crescente à nossa sociedade, à reputação de indivíduos e empresas, e até mesmo à democracia. Este tema está em evidência constante no Google e nas redes sociais, especialmente com as recentes decisões sobre a responsabilidade das plataformas digitais no Brasil.

A Ascensão dos Deepfakes e Seus Riscos

Os deepfakes, antes restritos a produções complexas, agora podem ser criados com relativa facilidade, tornando-se uma ferramenta potente para a disseminação de informações falsas e maliciosas.

  • Danos à Reputação: Pessoas públicas, políticos e até mesmo cidadãos comuns podem ter suas imagens e vozes manipuladas para dizer ou fazer coisas que nunca aconteceram, resultando em graves danos morais e à reputação. Casos de deepfakes pornográficos não consensuais são uma preocupação crescente e um crime grave.
  • Impacto nos Negócios: Empresas podem ser alvo de deepfakes para difamação, manipulação de mercados ou até mesmo fraudes sofisticadas, como a simulação da voz de um executivo para autorizar transações fraudulentas.
  • Ameaça à Democracia: A capacidade de criar vídeos realistas com falsos discursos de candidatos ou notícias manipuladas é um risco sério para a integridade dos processos políticos, especialmente em um contexto de eleições. O Tribunal Superior Eleitoral (TSE) já tem se posicionado ativamente sobre o uso indevido da IA no ambiente eleitoral.

O Papel da Nova Regulação Digital: Mais Responsabilidade para as Plataformas

A decisão recente do Supremo Tribunal Federal (STF) sobre a responsabilidade das plataformas digitais é um passo crucial no combate à desinformação e aos deepfakes. Embora o Artigo 19 do Marco Civil da Internet historicamente exigisse uma ordem judicial para a remoção de conteúdo, o STF sinalizou uma maior responsabilidade das plataformas em casos de conteúdos manifestamente ilícitos e graves.

  • Plataformas sob Pressão: Com essa nova interpretação, espera-se que as empresas de tecnologia intensifiquem seus esforços em detecção e remoção proativa de deepfakes e conteúdos de desinformação. A inação pode agora gerar responsabilidade legal para as plataformas.
  • Mecanismos de Denúncia Aprimorados: O objetivo é que as plataformas desenvolvam e aprimorem seus sistemas de denúncia e moderação, permitindo que usuários reportem deepfakes e conteúdo falso de forma mais eficaz.
  • Diálogo com Forças de Segurança: Instituições como a Polícia Federal e o Ministério Público têm intensificado o diálogo com as plataformas para agilizar a remoção de conteúdos criminosos e a identificação de seus criadores.

Como o Direito te Protege e o que Você Pode Fazer

Diante da proliferação de deepfakes e desinformação, o Direito Brasileiro oferece caminhos para proteção e reparação:

  1. Crimes Contra a Honra: A criação e disseminação de deepfakes que ofendam a honra (difamação, calúnia, injúria) podem configurar crimes previstos no Código Penal.
  2. Direito à Imagem e Voz: A manipulação de imagem e voz sem consentimento para fins ilícitos viola direitos fundamentais e pode gerar indenização por danos morais, conforme previsto no Código Civil.
  3. Lei Geral de Proteção de Dados (LGPD): A LGPD protege seus dados pessoais, e a manipulação indevida de sua imagem e voz por IA pode ser considerada uma violação da sua privacidade e autodeterminação informativa.
  4. Canais de Denúncia:
    • Delegacias de Polícia Civil (especializadas em crimes cibernéticos): Registre um Boletim de Ocorrência.
    • Ministério Público: Acione o MP para que investigue e tome as medidas cabíveis.
    • Ouvidoria Nacional de Direitos Humanos (Disque 100): Para denúncias de violações de direitos humanos.
    • Reportar às Plataformas: Utilize os mecanismos de denúncia das próprias redes sociais e aplicativos para solicitar a remoção do conteúdo.

A ascensão dos deepfakes e da desinformação exige vigilância constante e ação legal. O cenário jurídico está se adaptando rapidamente para enfrentar esses desafios. Estar ciente dos seus direitos e saber como agir é o primeiro passo para se proteger nessa nova era digital.

Você já se deparou com algum deepfake? Como você verifica a veracidade das informações online?

O escritório GRS Advogados atua nas principais áreas do Direito na região de Sorocaba.

Direito Civil Sorocaba

Direito Trabalhista Sorocaba

Direito Empresarial Sorocaba

Direito Tributário Sorocaba

Direito Criminal Sorocaba

Direito Previdenciário Sorocaba

Cidadania Italiana Sorocaba