
Deep fakes e eleições: O desafio de ver, duvidar e disciplinar juridicamente
04/07/2025
Primeiro mestrado internacional em Direito Eleitoral é lançado pela AMBRA em parceria com ABRADEP
07/07/2025Introdução: Os novos contornos da desinformação eleitoral
As eleições de 2026 se aproximam em um contexto inédito de desafios tecnológicos. A experiência acumulada em 2024 demonstrou que a desinformação, além de recorrente, alcançou níveis de sofisticação que dificultam sua identificação e repressão eficaz.
Segundo dados do TSE, foram registradas 37.728 representações por propaganda eleitoral em todo o país no último pleito. Dessas, ao menos 5.000 envolviam diretamente ilícitos de natureza tecnológica. Diversas outras revelaram dificuldades relacionadas ao uso de ferramentas digitais, incluindo deepfakes, provas digitais, suspensão de conteúdos, quebra de sigilo, contas falsas, disparos em massa e o uso de inteligência artificial.
O principal desafio não está apenas na quantidade de informações, mas em sua complexidade técnica, que exige do Judiciário uma análise individualizada e qualificada de cada manifestação.
Diferentemente de eleições anteriores, nas quais os padrões de ilicitude eram mais previsíveis, os avanços recentes ampliaram exponencialmente as possibilidades de manipulação. Tecnologias como o VEO, que gera vídeos hiper-realistas, e o uso de mecanismos de anonimização elevaram significativamente o grau de dificuldade da fiscalização.
1. Delimitação técnica entre deepfakes e vídeos gerados por IA generativa
Um dos obstáculos mais sensíveis diz respeito à correta identificação da tecnologia empregada nos conteúdos veiculados. Enquanto os deepfakes consistem na substituição de rostos ou vozes em vídeos reais por meio de algoritmos de aprendizado profundo, os sistemas generativos, como o VEO, produzem vídeos inteiramente novos, sem base em registros prévios, com impressionante realismo.
Essa diferenciação é juridicamente relevante. O arcabouço normativo vigente, especialmente a resolução TSE 23.610/19, não regula de maneira clara os conteúdos criados exclusivamente por inteligência artificial. Isso pode comprometer a repressão de manifestações enganosas que, embora falsas, escapam da definição tradicional de manipulação com consequências mais severas.
O art. 9-C, §1º, da resolução TSE 23.610/19, com redação dada pela Res. 23.732/24, dispõe:
“§ 1º É proibido o uso, para prejudicar ou para favorecer candidatura, de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia (deep fake).”
Diante da ausência de definição legal precisa, o termo entre parênteses usado na resolução tem sido compreendido de forma abrangente, alcançando qualquer criação, substituição ou alteração digital, o que gera insegurança jurídica.
O art. 9º-B da mesma resolução, por sua vez, permite o uso de conteúdo gerado por IA, desde que acompanhado de aviso claro e acessível sobre o uso da tecnologia.
É, portanto, imprescindível delimitar com exatidão o que configura deepfake e o que representa o uso lícito de IA generativa. Essa distinção torna-se ainda mais relevante diante do § 2º do art. 9-C, que prevê cassação do registro ou mandato e responsabilização penal nos casos de uso de deepfakes, seja para beneficiar, seja para prejudicar candidatos. Ao mesmo tempo, a IA generativa, desde que utilizada com transparência, continua permitida.
A revisão legislativa é urgente para conferir segurança jurídica e efetividade à repressão à desinformação digital.
2. Rastreabilidade como premissa para coibir o anonimato nocivo
A dificuldade crescente de identificar autores de propaganda ilícita digital intensificou o debate sobre a responsabilidade das plataformas – tema central do RE com repercussão geral 987, que discute os limites do art. 19 do Marco Civil da Internet.
A investigação de ilícitos eleitorais digitais exige, com frequência, medidas liminares de remoção de conteúdo, requisições aos provedores de aplicação para coleta de metadados (como IP, data e hora de acesso), e posterior solicitação aos provedores de conexão. Esse procedimento, lento e burocrático, permite que conteúdos desinformativos permaneçam ativos durante momentos cruciais da campanha.
Apesar de o anonimato ser vedado pela lei das eleições (art. 57-D da lei 9.504/97), sua prática tornou-se mais sofisticada com o uso de VPNs, perfis falsos e ambientes descentralizados. A legislação atual, no entanto, não exige expressamente a existência de um canal de comunicação verificável vinculado ao perfil que realiza publicações eleitorais.
Como proposta, defende-se uma alteração normativa que condicione a validade das contas e das publicações eleitorais à presença de um meio de contato autenticado – número de telefone ou e-mail validado -, cuja omissão ou recusa injustificada ao cumprimento de ordem judicial acarrete a qualificação da conta como anônima para fins eleitorais, autorizando sua suspensão temporária. Tal medida compatibiliza liberdade de expressão e dever de responsabilização.
3. Inversão do ônus da prova nos ilícitos tecnológicos eleitorais
Casos emblemáticos envolvendo prefeitos e outras figuras públicas, alvo de vídeos manipulados em 2024, evidenciaram as limitações técnicas e jurídicas para identificar a natureza e a origem desses conteúdos.
Diante desse cenário, é pertinente admitir, em hipóteses excepcionais e devidamente fundamentadas, a inversão do ônus da prova. Tal instituto encontra respaldo no art. 6º, inciso VIII, do CDC e no art. 373, §1º, do CPC.
Quando houver indícios mínimos de que determinado conteúdo foi gerado por tecnologia voltada à manipulação do pleito, e o autor não puder, por meios próprios, comprovar sua origem, é razoável transferir ao representado o dever de comprovar a regularidade do material.
Essa inversão respeita o contraditório e a ampla defesa, sendo justificada pela notória assimetria informacional entre os produtores de conteúdo, as plataformas digitais e o Poder Judiciário. É, portanto, um instrumento de garantia da efetividade jurisdicional no enfrentamento de ilícitos digitais.
Conclusão: Modernização normativa como salvaguarda da democracia
A transformação digital alterou radicalmente as bases da disputa eleitoral. Profissionais do Direito Eleitoral devem estar preparados para compreender os fenômenos tecnológicos que impactam diretamente a lisura do pleito.
Sem reformas legislativas e aprimoramento da jurisprudência, as eleições de 2026 correm o risco de serem marcadas por desinformação impune e manipulação em larga escala.
O enfrentamento da desinformação exige medidas concretas, viáveis e juridicamente sólidas. Não se trata de restringir liberdades, mas de proteger a integridade democrática. O tempo de agir é agora.