IA nas Eleições 2026: O que os dados numéricos revelam sobre a luta contra deepfakes
Com a aproximação das eleições gerais de outubro, o Brasil enfrenta um cenário digital inédito. A Inteligência Artificial (IA) saiu dos laboratórios e entrou de vez no jogo político.
A maioria das manipulações produzidas em massa ainda deixa rastros perceptíveis. Especialistas apontam que a observação detalhada da face e do áudio é o primeiro filtro de segurança.
Em 2026, o uso da IA não é proibido, mas deve seguir regras rígidas de transparência. Todo conteúdo gerado ou alterado por ferramentas inteligentes deve conter um rótulo explícito informando a natureza daquela peça.
O Tribunal Superior Eleitoral (TSE) estabeleceu o ‘Blackout de IA’. Nas 72 horas antes da votação e nas 24 horas seguintes é proibida a divulgação de qualquer conteúdo sintético novo, visando impedir que vídeos falsos circulem sem tempo hábil para desmentidos.
Algumas dicas para identificar deepfakes incluem:
Olhos e piscar: Observe movimentos robóticos, descompassados ou a ausência natural de piscadas.
Boca e dentes: Em conteúdos sintéticos, os dentes frequentemente parecem uma ‘barra branca’ única, sem divisões.
Estética ‘boneco’: Desconfie de peles excessivamente lisas ou sombras que permanecem estáticas mesmo quando o candidato se movimenta.
Áudio e respiração: A ausência de ruído de fundo ou de pausas naturais para respirar indica que a voz foi montada artificialmente.
Além de identificar, é preciso reportar os conteúdos para que a Justiça Eleitoral possa agir rapidamente:
· SOS Voto (1491): Disque-denúncia gratuito para relatar desinformação.
· Siade: O Sistema de Alerta de Desinformação Eleitoral, disponível no site do TSE, permite enviar links e arquivos suspeitos.
· App Pardal: Para irregularidades gerais em campanhas, disponível para Android e iOS.