Inteligência artificial já é arma de desinformação nas eleições
Caso “Dona Maria” expõe uso político de deepfakes e pressiona Justiça Eleitoral a reagir
Foto: Reprodução
O avanço do uso de inteligência artificial para espalhar desinformação já é tratado como uma ameaça concreta ao processo democrático brasileiro – e ganha contornos ainda mais graves em ano eleitoral. A recente ação da federação formada por PT, PCdoB e PV no Tribunal Superior Eleitoral (TSE) contra a personagem virtual “Dona Maria” escancara como tecnologias sofisticadas estão sendo usadas para manipular o debate público e atacar lideranças políticas.
Criada com recursos de IA, a personagem simula uma mulher idosa e negra e acumula centenas de milhares de seguidores nas redes sociais. Segundo a representação apresentada à Justiça, o perfil divulga conteúdos falsos e distorcidos contra o presidente Luiz Inácio Lula da Silva e figuras da esquerda, sem transparência adequada sobre o uso de inteligência artificial. Entre os exemplos citados estão informações incorretas sobre o Pix e a falsa narrativa de “taxação de catadores de latinha” – já desmentida, mas que continua circulando.
Para os partidos, trata-se de um caso emblemático de uso político e comercial da desinformação. Além de espalhar conteúdos enganosos, o perfil também monetiza a audiência com publicidade, parcerias e venda de cursos sobre automação digital. A federação pede a derrubada das contas, a proibição de novos conteúdos semelhantes e a identificação dos responsáveis – um ponto central diante do anonimato frequente nesse tipo de operação.
O episódio ilustra uma transformação profunda no ecossistema da desinformação. Se antes as fake news dependiam de montagem rudimentar ou textos manipulados, hoje a IA permite produzir conteúdos altamente realistas: vídeos (deepfakes), áudios falsos e imagens fabricadas com aparência convincente. O resultado é uma máquina de desinformação mais barata, mais rápida e muito mais difícil de detectar.
Ambiente de confusão permanente
Especialistas e instituições alertam que o impacto vai além da mentira em si. A produção em escala industrial de conteúdos falsos cria um ambiente de confusão permanente. Mesmo quando uma peça de desinformação é desmentida, o dano já foi feito. Como apontam análises no campo da comunicação política, o efeito mais perigoso é a erosão da confiança: o eleitor passa a duvidar de tudo, o que enfraquece o debate público e abre espaço para narrativas autoritárias.
A preocupação já mobiliza o Judiciário. O ministro Gilmar Mendes defendeu a criação de uma força-tarefa para identificar deepfakes em tempo real durante as eleições, enquanto o TSE discute regras para obrigar a identificação clara de conteúdos gerados por IA. No Congresso, propostas buscam criminalizar a criação e disseminação de deepfakes com fins eleitorais.
O problema, no entanto, não é apenas tecnológico – é político. A disseminação massiva de conteúdos falsos tem sido associada a estratégias organizadas de desinformação, frequentemente utilizadas por setores da extrema direita digital para atacar adversários, deslegitimar instituições e criar caos informacional. Nesse cenário, candidaturas progressistas, mulheres e minorias tornam-se alvos preferenciais, muitas vezes vítimas de conteúdos manipulados ou violentos.
O fenômeno também é global. Em diferentes países e contextos de conflito, vídeos falsos gerados por IA já alcançaram milhões de visualizações e chegaram a enganar autoridades, demonstrando o potencial da tecnologia para influenciar percepções em larga escala.
Diante disso, as respostas ainda são consideradas insuficientes. Embora haja avanços – como exigência de transparência, remoção de conteúdos e propostas de regulação – persistem desafios estruturais: a velocidade da desinformação supera a checagem, a fiscalização em tempo real é limitada e grandes plataformas digitais resistem a mudanças mais profundas em seus modelos de negócio.
No cenário brasileiro, o caso “Dona Maria” sintetiza esse novo momento. Não se trata apenas de um perfil isolado, mas de um modelo de operação que combina tecnologia, monetização e disputa política. Em um cenário de eleições próximas, o uso criminoso da inteligência artificial deixa de ser uma possibilidade futura e se consolida como um dos grandes riscos à democracia brasileira.