
Novo Código Eleitoral: entenda o que pode mudar e as principais polêmicas
10/07/2025
ABRADEP parabeniza nomeações para os Tribunais Eleitorais
10/07/2025Por Francieli de Campos e Elder Maia Goltzman
A decisão do Supremo Tribunal Federal (STF) acerca da responsabilidade civil na internet criou um cenário regulatório fragmentado e confuso. Há que se aguardar a publicação do acórdão, por óbvio, mas o cenário já desenhado mostra algumas dificuldades.
Ao declarar parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, a corte instituiu múltiplos regimes de responsabilidade que sobrecarregarão empresas e o Judiciário, sem oferecer clareza operacional. A ausência de uma transição gradual e a complexidade das novas regras geram insegurança jurídica imediata. Sem perder de vista que logo se avizinha um período de eleições gerais no país.
Promulgado em 2014, o artigo 19 buscou equilibrar liberdade de expressão e proteção contra danos, fixando que provedores só poderiam ser responsabilizados por conteúdos de terceiros após ordem judicial específica. A lógica era impedir remoções preventivas (overblocking) e assegurar análise técnica do Judiciário antes de qualquer censura, garantindo um ambiente online plural e inovador. Ao relativizar essa salvaguarda, o STF desloca o eixo decisório do Judiciário para as plataformas, rompendo com o desenho original de neutralidade do Marco Civil.
Com o julgamento, passam, a nosso sentir, coexistir quatro sistemas distintos de responsabilidade:
- crimes contra a honra, aplica-se o artigo 19 do MCI, sem prejuízo da possibilidade de remoção por notificação extrajudicial;
- ilícitos em geral, com remoção após notificação extrajudicial (artigo 21);
- condutas graves (terrorismo, racismo, etc.), com remoção imediata, dispensada a notificação (dever de cuidado);
- anúncios pagos e conteúdos disseminados por robôs, com inversão do ônus da prova (presunção de responsabilidade).
É possível perceber que a tese fixada representa uma mudança drástica no regime de responsabilidade das plataformas digitais no Brasil, pois o STF assumiu o papel de definir critérios para a remoção de conteúdos — tarefa tradicionalmente reservada ao Legislativo.
As big techs tornam-se diretamente responsáveis por retirar, de forma imediata, conteúdos considerados ilegais, sobretudo em casos de crimes graves. A lista inclui condutas de consenso, como pornografia infantil, incentivo ao suicídio e terrorismo, mas também crimes como a abolição violenta do Estado Democrático de Direito, categoria que pode ser interpretada de forma ampla e subjetiva.
A decisão não se limita às gigantes da tecnologia, já que o Marco Civil abrange a regulação de toda a internet. Das big techs aos pequenos e microprovedores — do Google ao Reclame Aqui, passando por fóruns especializados e caixas de comentários de publicações da imprensa especializada — todos passam a se submeter às mesmas obrigações. Diferentemente da legislação europeia, que impõe deveres reforçados apenas às plataformas com mais de 45 milhões de usuários mensais, o Brasil adota, agora, um modelo universal.
A tese não aponta penalidades administrativas automáticas nem multas para quem descumprir as novas exigências, o que parece deixar a consequência para futuras ações judiciais, caso a caso. Tampouco definiu período de adaptação. Empresas de qualquer porte precisam se adequar imediatamente, sem tempo para desenvolver soluções técnicas ou revisar fluxos internos? Não está claro e não sabemos se tal ponto será aclarado com o acórdão. Tal omissão pode ser um prenúncio de falhas operacionais e judicialização em massa.
Um ponto importantíssimo a ser observado, e ao que parece, passou desapercebido pelos nobres julgadores, é que o novo dever de cuidado, na prática, empurrará as decisões de remoção para filtros automatizados. Algoritmos são excelentes em reconhecer padrões estatísticos, mas péssimos em interpretar contexto humano. E para identificar postagens que devem ser removidas, precisamos entender o contexto da publicação, algo que escapa à máquina.
Mesmo sistemas com 99,99 % de acerto — taxa inatingível na realidade — deixariam escapar dezenas de milhares de publicações inadequadas por dia. Pior: estudos empíricos revelam que mais de 60 % das decisões de moderação já são totalmente automáticas e, dentro desse universo, mais de 99 % dos casos são identificados sem olhar humano prévio[1].
Esse círculo “máquina-máquina” falha justamente onde o Direito exige delicadeza: ironia, sátira política, crítica eleitoral, denúncias jornalísticas que reproduzem fala ofensiva ou simples críticas retóricas costumam ser marcadas como infração. O chamado Teorema da Impossibilidade de Masnick sustenta que nenhum regime de moderação em larga escala funcionará bem para todos[2], e experimentos recentes mostram que modelos de linguagem sinalizam desproporcionalmente conteúdo de grupos minorizados como infrator e têm dificuldade para ler sarcasmo e piada⁴.
Ao legitimar a exclusão automática como primeira resposta, a tese do STF coloca a liberdade de expressão — e, por extensão, a liberdade de imprensa que depende de narrativas críticas — nas mãos de sistemas opacos e estatísticos. Corremos o risco de instaurar um overblocking preventivo que empobrece o debate público e mina a confiança social nas próprias decisões judiciais. Sem critérios objetivos, as plataformas estremecem sob o temor de sanções e tendem a remover preventivamente conteúdos potencialmente controversos, transformando o silêncio em estratégia de autoproteção.
Outro ponto da tese que trouxe estranheza é a presunção de responsabilidade por conteúdos gerados por robôs, chatbots e sistemas de inteligência artificial, fato que certamente impõe riscos ao ambiente de inovação. A regulamentação indireta de IA, imposta sem audiência pública ou debate parlamentar, mina previsibilidade e pode afastar capitais essenciais ao desenvolvimento tecnológico nacional, criando um clima instável do ponto de vista de investimentos e de insegurança, do ponto de vista jurídico.
À primeira vista, a complexidade aumentará os litígios: plataformas recorrerão para contestar remoções; usuários, para pedir reparação. Conceitos vagos como “falha sistêmica” e a fiscalização de “medidas adequadas” serão fontes permanentes de controvérsia.
Cumpre observar, ainda, que uma intervenção normativa dessa envergadura deveria ser veiculada por lei formal, como exige o Pacto Internacional de Direitos Civis e Políticos[3] — tratado de direitos humanos ratificado pelo Brasil e dotado de força supralegal desde 1992. O artigo 19, § 3º, do pacto dispõe que a liberdade de expressão só pode sofrer restrições “expressamente previstas em lei”. À luz desse parâmetro, é difícil sustentar que mudanças tão profundas possam derivar exclusivamente de decisão judicial.
Exceção: legislação eleitoral e os atos normativos expedidos pelo TSE
A Lei 9.504/1997 traz as regras basilares para a propaganda eleitoral na internet e prevê, em seu artigo 57-J, inserido em 2017, que a Justiça Eleitoral poderá exercer seu poder regulamentar para minudenciar o cenário e as ferramentas tecnológicas existentes em cada momento eleitoral.
A normativa visa dar maior agilidade e delega poderes à Justiça Eleitoral para as especificidades e desafios que cada novo pleito traz consigo. Ocorre que a delegação é genérica e deixa dúvidas sobre seus limites e possibilidade de inovar no ordenamento jurídico criando limitações sem amparo previsto em lei.
Além disso, é importante pontuar que o Legislativo tem sido omisso em enfrentar temas relacionados às plataformas digitais no Brasil, abrindo espaço para que outros Poderes surjam e ocupem o vácuo deixado. Desde a pandemia de 2020, com o PL 2630, há uma tentativa de traças balizas para o funcionamento de provedores de aplicação no país, sem qualquer sucesso. O forte lobby das empresas gigantes de tecnologia e a própria polarização política existente causam um tensionamento na discussão e não permitem que o projeto seja amadurecido a ponto de ser pautado para votação.
Assim é que, em 2024, diante da ausência de normas específicas para as plataformas, e com amparo no artigo 57-J, o TSE aprovou resolução exigindo remoção imediata de conteúdos que configurassem discurso de ódio, crimes antidemocráticos ou desinformação no contexto das eleições. Caso as plataformas não indisponibilizassem tais conteúdos postados pelos usuários imediatamente, seriam solidariamente responsáveis nos âmbitos civil, administrativo e penal.
Como o julgamento do Marco Civil da Internet, que expressamente fez a ressalva das normas expedidas pelo TSE, o órgão eleitoral brasileiro ganha mais força em seu poder regulamentar e aval da Suprema Corte para agir no tema das eleições.
O protagonismo do TSE resolve a ausência do Legislativo, mas coloca o órgão em uma situação institucional de conflito com parcela da sociedade. O poder regulamentar exercido pelo tribunal é unilateral e constantemente questionado, por vezes no próprio Supremo através de ações diretas de inconstitucionalidade.
O julgamento do MCI também ressalvou a aplicação da legislação eleitoral. Nesse ponto, a Lei 9.504/1997 possui uma regra muito parecida com o artigo 19 do MCI. Trata-se do artigo 57-F, o qual dispõe que as penalidades por propaganda irregular serão aplicadas ao provedor de conteúdo e de serviços multimídia que hospeda a divulgação da propaganda eleitoral de candidato, de partido ou de coligação, se, no prazo determinado pela Justiça Eleitoral, contado a partir da notificação de decisão sobre a existência de propaganda irregular, não tomar providências para a cessação dessa divulgação.
O parágrafo único do artigo 57-F prescreve que o provedor de conteúdo ou de serviços multimídia só será considerado responsável pela divulgação da propaganda se a publicação do material for comprovadamente de seu prévio conhecimento.
Logo, pelo texto legal, e diante da ressalva feita pelo Supremo de aplicação da lei eleitoral, pedidos de remoção de conteúdo que configurem propaganda eleitoral irregular na internet ainda deverão tramitar pela Justiça Eleitoral através das representações por propaganda eleitoral irregular.
Conclusão
A tese do STF, decidida a portas fechadas e sem participação do Congresso ou da sociedade civil, reforça a concentração de poder regulatório no Judiciário e impõe obrigações imediatas sem transição. O deslocamento das decisões de remoção para algoritmos imperfeitos adiciona uma camada de risco: a potencial eliminação sumária de discursos legítimos, inclusive jornalísticos, por sistemas incapazes de apreender contexto, ironia ou humor.
O resultado é um ambiente de insegurança jurídica, propício à autocensura, avesso à inovação e ineficaz na proteção dos próprios direitos que a Corte buscava resguardar. Plataformas e usuários vagam por um labirinto de incertezas, e o Legislativo se quer dá sinal de atuação propositiva para resolução da questão.
—
[1] MASNICK, Mike. Masnick’s impossibility theorem (content moderation at scale). Techdirt, 25 fev. 2019. Disponível em: https://www.techdirt.com/2019/11/20/masnicks-impossibility-theorem-content-moderation-scale-is-impossible-to-do-well/. Acesso em 02/07/2025.
[2]GARROTE, Marina e RAMOS, Pedro Henrique. A moderação automatizada e o algoritmo imperfeito. Disponível em https://www.jota.info/opiniao-e-analise/artigos/a-moderacao-automatizada-e-o-algoritmo-imperfeito. Acesso em 02/07/2025.
[3] https://www.planalto.gov.br/ccivil_03/decreto/1990-1994/d0592.htm. Acesso em 02/07/2025.