IT Fórum: A indústria da mentira – como a IA virou fábrica de caos político e crise inventada
IA já fabrica narrativas plausíveis em escala. O risco é a erosão da credibilidade. Governança, transparência e regulação viram requisito.
A discussão sobre Inteligência Artificial deixou de ser apenas tecnológica. Ela passou a ser social, institucional e, em certos contextos, diretamente política. O ponto central já não é se a IA “imita” inteligência humana, mas se ela pode ser direcionada para fabricar versões plausíveis de realidade, em escala industrial, com impacto na confiança pública.
No IT Forum, publiquei o artigo “A indústria da mentira: como a IA virou fábrica de caos político e crise inventada”, no qual examino como a combinação de IA generativa e comunicação algorítmica eleva o patamar da desinformação. O problema deixa de ser somente “fake news” e passa a ser produção sistemática de narrativas, com aparência de legitimidade, para gerar pânico, instabilidade e erosão de credibilidade.
1) Da desinformação artesanal à desinformação industrial
Durante muito tempo, desinformação exigiu esforço humano, coordenação e tempo. Com IA generativa, conteúdo textual e visual pode ser produzido em volume, com coerência e verossimilhança superiores, reduzindo custo e aumentando velocidade. Isso torna a detecção mais difícil e a resposta institucional mais lenta.
2) O risco real é a erosão da credibilidade
Quando o público passa a desconfiar de tudo, o debate público se degrada. O custo não é apenas reputacional. É também operacional, regulatório e democrático, porque decisões coletivas dependem de uma base mínima de fatos compartilhados.
3) O dilema da hipersegmentação
A mesma tecnologia que melhora eficiência, personalização e análise de dados pode ser usada para direcionar narrativas fabricadas para públicos específicos, com precisão. O efeito prático é amplificar medo e polarização com “distribuição inteligente” do conteúdo.
4) Três respostas de governança que saem do discurso e entram no plano de ação
No artigo, proponho três frentes, tratadas como capacidades permanentes e não como reação episódica:
- Cultura da dúvida, com foco em interesse e benefício da narrativa, não apenas em autoria aparente.
- Marca d’água e transparência de uso de IA, como prática verificável para sinalizar origem, edição e automação em conteúdo.
- Regulação proporcional ao risco, tratando manipulação e desestabilização informacional como cenário de alto risco, com responsabilização efetiva.
5) Uma pergunta que orienta 2026
A fronteira entre análise legítima de dados e fabricação de crise pode ser “apenas um prompt e uma intenção”. Se isso for verdade, a liderança precisa mudar o eixo da conversa: menos encantamento com capacidade técnica e mais governança, rastreabilidade e accountability.
Artigo completo no IT Forum:

Pergunta para debate com leitores: quais mecanismos sua organização já tem para diferenciar conteúdo legítimo de conteúdo sintético, em que o objetivo é produzir instabilidade?
