Especialista em cibersegurança alerta para os riscos do uso da IA em campanhas políticas, deepfakes e manipulação algorítmica nas eleições mais tecnológicas da história do Brasil.
Por Marcelo Branquinho, CEO e fundador da TI Safe
Estamos às portas das eleições presidenciais de 2026 — e, pela primeira vez, entraremos em um processo eleitoral amplamente mediado por sistemas de Inteligência Artificial (IA). O que parecia ficção há poucos anos agora é realidade: a IA influencia como pensamos, consumimos e nos informamos. E, em breve, também poderá influenciar como votamos e percebemos a própria democracia.
Ferramentas generativas como GPT, Gemini e Claude já produzem textos, vozes e vídeos com tamanha verossimilhança que desafiam até especialistas em detecção digital. Um deepfake bem executado é capaz de colocar palavras na boca de um candidato, criar crises instantâneas e alterar o rumo de uma eleição antes mesmo da checagem dos fatos. A desinformação ganhou escala e velocidade inéditas.
O problema é que o Brasil ainda não possui regulação específica sobre o uso eleitoral da IA. Isso abre espaço para o uso indevido da tecnologia em campanhas que podem microsegmentar mensagens, manipular emoções e criar bolhas informacionais difíceis de rastrear. Bots inteligentes simulam interações humanas e geram falsos engajamentos, reforçando narrativas fabricadas e produzindo uma percepção artificial de apoio popular — o que chamamos de manipulação algorítmica.
Além disso, é urgente fortalecer a infraestrutura digital da Justiça Eleitoral. Embora as urnas eletrônicas sejam isoladas da internet, os sistemas de totalização e divulgação de votos dependem de redes conectadas que devem ser protegidas contra ataques cibernéticos sofisticados. Normas como a NIST SP 800-53 e a IEC 62443 oferecem parâmetros técnicos robustos, enquanto a arquitetura de segurança Zero Trust deveria servir de referência para o TSE, partindo do princípio de que nenhuma conexão é confiável por padrão.
Mas a cibersegurança é apenas um lado da questão. O outro é a governança digital. A União Europeia já classifica sistemas de IA voltados à influência política como de “alto risco” e exige auditorias e rotulagem obrigatória de conteúdos sintéticos. Nos Estados Unidos, campanhas políticas que utilizam IA passam por auditorias externas. No Brasil, entretanto, ainda há falta de transparência e responsabilização, permitindo que plataformas estrangeiras operem sem supervisão, o que fragiliza a soberania informacional.
Defendo que o país crie uma regulação específica para o uso da IA em campanhas eleitorais, com obrigações de transparência, auditoria técnica e rotulagem de deepfakes. O TSE, a ANPD e o Ministério Público devem atuar de forma coordenada, combinando conhecimento técnico e autoridade legal. Sem isso, corremos o risco de chegar a 2026 vulneráveis a manipulações invisíveis.
A tecnologia, porém, não é o inimigo. A IA pode ser uma aliada poderosa na detecção de desinformação, no monitoramento de redes sociais e na análise preditiva de riscos cibernéticos. O problema está na ausência de governança. Cabe às instituições, à academia e à sociedade civil garantir que a inteligência artificial sirva à democracia — e não o contrário.
As eleições de 2026 serão um divisor de águas, não apenas pelo embate político, mas pela forma como lidaremos com o poder de uma tecnologia capaz de moldar consciências. Sem transparência, regulação e educação digital, corremos o risco de transformar o voto — a expressão máxima da vontade popular — em um produto manipulado por algoritmos.
Ainda há tempo de agir. É urgente construir uma governança digital baseada em segurança, ética e responsabilidade.
A democracia brasileira só será verdadeiramente forte se for também ciberneticamente segura.
