IA e controle externo: meu novo artigo na MIT Technology Review Brasil

Novo artigo sobre IA, RAG e auditoria pública, com foco em governança, explicabilidade e futuro do controle externo.

ChatGPT Image 25 de mar. de 2026, 14_06_28
Compartilhe:

A discussão sobre IA e controle externo deixou de ser um tema de futuro. Ela já integra o presente das instituições públicas que atuam com fiscalização, auditoria, análise documental e supervisão de políticas públicas. Foi sobre esse movimento que escrevi meu novo artigo publicado na MIT Technology Review Brasil, intitulado “A evolução da auditoria pública: do rigor das regras à inteligência dos contextos”. No texto, analiso como a IA generativa e a técnica de RAG, Retrieval-Augmented Generation, começam a alterar a lógica da auditoria pública e a ampliar a capacidade analítica do Estado.

Por que IA e controle externo se tornaram um tema central

A administração pública produz volumes cada vez maiores de dados, relatórios, contratos, processos eletrônicos e evidências digitais. Nesse cenário, ferramentas tradicionais de fiscalização, historicamente baseadas em amostragem, regras fixas e consultas estruturadas, permanecem relevantes, mas já não bastam, isoladamente, para oferecer supervisão abrangente e tempestiva. O artigo parte justamente dessa constatação, ao afirmar que a transformação digital elevou a complexidade informacional do Estado e expôs os limites do modelo clássico de auditoria.

Se você acompanha esse debate, leia também meus outros artigos sobre inteligência artificial, Transformação Digital e GovTech.

O limite do modelo baseado apenas em regras

A auditoria tradicional funciona bem quando o problema está claramente mapeado em campos estruturados. Ela identifica inconsistências aritméticas, lacunas cadastrais e desvios previamente parametrizados. O problema surge quando a fiscalização precisa compreender semântica, contexto, intenção contratual, conexões entre documentos e padrões novos de risco. Segundo o artigo, esse modelo opera como um “espelho retrovisor”: mostra bem o que já foi formalizado em estrutura de dados, mas encontra dificuldade para lidar com o que está disperso em textos, cláusulas, pareceres e documentos complexos.

Como a IA generativa muda a lógica do controle externo

É nesse ponto que a relação entre IA e controle externo ganha relevância prática. O artigo sustenta que a grande mudança técnica ocorre com a IA generativa, especialmente por meio do RAG, que permite recuperar contexto em grandes bibliotecas de documentos não estruturados, como PDFs, relatórios e processos eletrônicos. Em vez de apenas buscar “o quê”, a tecnologia passa a apoiar também a compreensão do “porquê” e do “como”.

O que o RAG permite fazer na prática

Ao combinar grandes modelos de linguagem com bases institucionais confiáveis, o RAG ancora as respostas em fontes oficiais e reduz o risco de alucinações. No contexto do controle externo, isso abre espaço para resumir processos, localizar contradições, recuperar precedentes, correlacionar documentos e apoiar análises complexas em menos tempo. O artigo cita, como exemplos brasileiros, iniciativas como ChatTCU e ANIA, associadas ao uso institucional dessa lógica de apoio à fiscalização e à leitura qualificada de documentos.

Oportunidades e limites da IA no setor público

A incorporação de IA no controle externo não deve ser vista como simples automação. O ganho potencial está em ampliar a capacidade humana de análise diante do crescimento da complexidade documental e decisória do Estado. O artigo informa que 60% dos Tribunais de Contas já implementaram soluções de IA, mas também registra que 70% das instituições apontam a falta de conhecimento técnico especializado como principal barreira ao avanço. Isso mostra que a adoção tecnológica depende menos de entusiasmo e mais de capacidade institucional.

Eficiência sem governança não resolve o problema

O texto também alerta que a discussão sobre IA e controle externo não é apenas técnica. Ela envolve governança, legitimidade, transparência e responsabilidade institucional. Sistemas mais sofisticados podem ampliar a capacidade de detecção e análise, mas também podem gerar novos riscos quando operam com baixa explicabilidade ou dificultam o controle sobre a lógica que levou a determinado resultado.

O dilema da caixa-preta e a exigência de explicabilidade

Um dos pontos mais relevantes do artigo é o chamado dilema da accountability algorítmica. Em muitos casos, os modelos mais eficazes para detectar padrões complexos também são os mais opacos. Essa opacidade entra em tensão com princípios fundamentais do Estado de Direito, como motivação das decisões, contraditório e ampla defesa. Por isso, o texto defende que a IA explicável, XAI, não é apenas uma boa prática técnica, mas condição importante para legitimar o uso da inteligência artificial em decisões de controle.

O que experiências internacionais ensinam

O artigo também compara abordagens internacionais. O Reino Unido aparece como exemplo de prudência regulatória, com adoção ainda incipiente no setor público, enquanto a França é apresentada como modelo mais pragmático e orientado a resultados. Já a União Europeia, com o EU AI Act, consolida uma governança baseada em risco e reforça a ideia de que os órgãos de controle não serão apenas usuários de IA, mas também auditores da conformidade desses sistemas.

A dupla responsabilidade dos tribunais de contas

Esse ponto é especialmente relevante. O artigo sustenta que os tribunais passam a carregar uma responsabilidade dual. De um lado, precisam assegurar que seus próprios sistemas cumpram requisitos éticos e de transparência. De outro, devem avaliar a conformidade dos sistemas de IA utilizados pelo restante da administração pública. Em outras palavras, deixam de ser apenas usuários e passam a atuar como guardiões da integridade algorítmica do Estado.

Meu ponto central sobre IA e controle externo

A tese que procuro sustentar é direta. O futuro do controle externo não será definido apenas pela adoção de novas ferramentas. Ele dependerá da capacidade institucional de usar IA com método, supervisão humana, explicabilidade, governança baseada em risco e compromisso com o interesse público. O desafio mais sensível não é apenas tecnológico. É jurídico, ético e organizacional.

Leia o artigo completo

Foi essa reflexão que desenvolvi no artigo publicado pela MIT Technology Review Brasil. Para quem atua com auditoria pública, transformação digital, governança, dados e inovação no setor público, trata-se de um debate que já se tornou incontornável.

Leia o artigo completo na MIT Technology Review Brasil.

Assista também ao vídeo abaixo, criado com base nesse artigo.

E, se quiser aprofundar essa conversa, veja meus artigos autorais e solicite uma palestra para seu evento, órgão ou organização. O seu site reúne artigos, palestras e podcast, e a página de contato para palestras convida ao envio de briefing do evento.

What do you feel about this?