
Nota de apoio e solidariedade à juíza do TRE-SP Danyelle Galvão
05/12/2025
ABRADEP participa de lançamentos de obras jurídicas no STF e no TCU
12/12/2025Fronteira entre real e sintético foi dissolvida, desafiando a capacidade de ferramentas tradicionais de fiscalização
Os dados do recente levantamento do “Observatório IA nas Eleições” (parceria entre Data Privacy Brasil e Aláfia Lab)[1] lançam um alerta necessário sobre os limites da regulação do conteúdo político pela Justiça Eleitoral. Ao analisar 285 casos de uso de inteligência artificial entre janeiro e novembro deste ano, o estudo revela que a tecnologia já é infraestrutura básica do debate político, e não apenas uma ferramenta de “submundo”. O dado de que 60% dessas ocorrências foram classificadas como deepfakes (manipulação de áudio e vídeo) confirma que a fronteira entre o real e o sintético foi dissolvida, desafiando a capacidade de resposta de uma justiça especializada que opera com ferramentas tradicionais de fiscalização.
A análise da autoria dos conteúdos oferece um argumento contundente sobre a complexidade do cenário. A pesquisa identificou que, dos casos rastreados, 25 foram publicados oficialmente por partidos políticos, sendo que, destes, 20 partiram do Partido dos Trabalhadores (PT). Esse dado é juridicamente relevante: demonstra que legendas gigantescas, que operam com fundos públicos e corpos jurídicos estruturados, muitas vezes optam por testar os limites das vedações da Corte Eleitoral. Se a norma infralegal encontra resistência de adesão até mesmo no “núcleo duro” do sistema político, sujeito direto da legislação eleitoral, sua eficácia sobre a massa de eleitores anônimos tende a ser reduzida.
Essa realidade impõe um debate sobre competência e hierarquia normativa. Partidos políticos são regidos pela Lei Federal nº 9.096/95, que lhes garante autonomia. Quando o TSE busca regular o uso de tecnologia por meio de resoluções específicas para as eleições, cria-se uma tensão prática: as agremiações, amparadas em sua autonomia e na ausência de lei federal específica proibitiva, acabam navegando em zonas cinzentas. O fato de um partido estruturado ser responsável pela maioria dos casos institucionais de IA sugere que a estratégia política muitas vezes se sobrepõe ao temor da sanção administrativa.
Outro ponto nevrálgico revelado pelos números é a natureza do conteúdo, que desmonta a tese de que toda IA é necessariamente desinformação maliciosa. O estudo aponta que 28% dos casos circularam em contextos de sátira ou humor. Num Estado Democrático de Direito, a liberdade de expressão abarca o direito à paródia, à crítica ácida e ao escárnio. Restringir deepfakes humorísticos sob a justificativa genérica de “integridade eleitoral” é um desafio constitucional sensível. A Justiça Eleitoral não deve ser colocada na posição de curadora do humor nacional, decidindo qual meme sintético é “verdadeiro” ou “falso”, sob pena de ferir a livre manifestação do pensamento.
É verdade que 58% das ocorrências traziam alegações ou cenas falsas usadas para enganar, o que justifica a vigilância. Contudo, os alvos preferenciais, Lula (30 casos) e Bolsonaro (26), seguidos por Alexandre de Moraes (15) e Donald Trump (15), indicam que a IA foi absorvida pela polarização já existente, servindo como munição para trincheiras consolidadas. O uso para ataques políticos (54%) supera o de endosso (42,5%), mas ambos coexistem. Isso demonstra que a ferramenta pode ser agnóstica. Não há santo, nem pecador, e talvez a regulação devesse focar no dolo específico de quem a usa para fraudar o pleito, e não na demonização da tecnologia em si.
A presença de figuras estrangeiras como Donald Trump entre os principais alvos reforça a dificuldade de um controle nacional isolado. A produção de conteúdo é globalizada e descentralizada. Se partidos brasileiros, sujeitos à lei nacional, já desafiam a norma (como mostram os casos institucionais), o controle sobre atores internacionais ou militância desorganizada é ainda mais árduo. A insistência em soluções baseadas apenas em resoluções ignora que a tecnologia é fluida: onde o Estado constrói uma barreira jurídica, a IA frequentemente encontra um caminho técnico alternativo.
Em conclusão, os dados do estudo citado indicam que a regulação da Inteligência Artificial no processo eleitoral é um desafio sistêmico que não deve recair exclusivamente sobre os ombros da Justiça Eleitoral. Embora o esforço normativo do TSE seja louvável na tentativa de proteger a integridade do pleito, os números demonstram que a efetividade do controle dependem de diversos fatores. O caminho para o futuro exige um diálogo institucional mais amplo, reconhecendo que a complexidade tecnológica e a dinâmica das redes demandam instrumentos legislativos que complementem a fiscalização judicial, garantindo segurança jurídica sem comprometer as liberdades democráticas.
_______________________________________________________________
[1] GAMA, Rafaela. Lula, Bolsonaro, Moraes e Trump são os principais alvos de conteúdo criado por IA, online mostra levantamento. O Globo, Rio de Janeiro, 01 dez. 2025. Disponível em: https://oglobo.globo.com/blogs/sonar-a-escuta-das-redes/post/2025/12/lula-bolsonaro-moraes-e-trump-sao-os-principais-alvos-de-conteudo-criado-por-ia-online-mostra-levantamento.ghtml. Acesso em: 2 dez. 2025.logo-jota




