Uso ético da IA no setor público
Uso ético da inteligência artificial no setor público: desafios, avanços e oportunidades
Diversas iniciativas recentes, tanto por parte de órgãos de controle quanto por recomendações de organismos internacionais, reforçam a urgência de equilibrar inovação tecnológica com transparência, responsabilidade e proteção de direitos fundamentais no uso de inteligência artificial (IA) pelo setor público.
O que aconteceu?
Em julho de 2024, o Tribunal de Contas da União (TCU) publicou as Diretrizes Éticas para IA na Administração Pública, com o objetivo de oferecer um arcabouço não vinculante para orientar órgãos públicos brasileiros na adoção de sistemas de IA, com base em princípios como transparência, equidade e prestação de contas.
No âmbito legislativo, o Senado Federal aprovou, em dezembro de 2024, o Projeto de Lei nº 2338/2023, que estabelece princípios e normas gerais para o desenvolvimento, uso e fiscalização de tecnologias de IA no país. O texto encontra-se em análise na Câmara dos Deputados.
Em maio de 2025, pesquisadores brasileiros divulgaram o Guia de Princípios para o Uso Ético e Responsável de IA em Pesquisa, reforçando valores como proteção de dados, mitigação de vieses algorítmicos e preservação da autonomia humana em decisões automatizadas.
A nível internacional, a UNESCO, por meio de seu observatório global, destacou a ausência de legislação nacional específica sobre IA no Brasil, recomendando que o país se alinhe às orientações internacionais de direitos e governança, a fim de não comprometer a confiança da sociedade nas instituições públicas.
Por que isso é importante?
- Proteção de direitos fundamentais: A aplicação de IA em decisões que afetam diretamente a vida dos cidadãos — como concessão de benefícios, fiscalização tributária ou seleção de projetos — pode reproduzir ou intensificar desigualdades, caso não haja mecanismos de mitigação de vieses.
- Manutenção da confiança pública: Sistemas automatizados opacos comprometem a transparência e dificultam a identificação de falhas, minando a confiança social, especialmente quando órgãos de controle encontram dificuldades em auditar os algoritmos utilizados.
- Responsabilidade e prestação de contas: A ausência de diretrizes claras pode levar à responsabilização indevida de agentes públicos por decisões tomadas por sistemas automatizados, enfraquecendo a governança e gerando insegurança jurídica.
- Conformidade com padrões internacionais: Entidades como a UNESCO e a OCDE recomendam a adoção de frameworks éticos antes da ampliação do uso de IA no setor público. O não alinhamento pode acarretar sanções ou exclusão de cooperação técnica internacional.
Como isso afeta a vida das organizações públicas?
- Capacitação e letramento digital: É essencial capacitar os servidores públicos sobre os aspectos técnicos e éticos da IA, promovendo a compreensão sobre riscos de viés, auditoria de algoritmos e limites da automação.
- Criação de políticas de governança: Escritórios de TI e comissões de integridade devem estabelecer políticas específicas para aquisição, implantação e monitoramento de soluções de IA, incluindo avaliações de impacto sobre direitos e mecanismos para correção de falhas.
- Riscos reputacionais e jurídicos: O uso indevido de IA pode provocar reações sociais imediatas, incluindo responsabilização pública, ações judiciais e danos à imagem institucional.
- Exigência de transparência e auditoria: Sistemas automatizados precisam ser auditáveis e compreensíveis. Isso demanda relatórios técnicos acessíveis e a criação de instâncias independentes para fiscalização dos algoritmos quanto aos princípios de não discriminação e justiça.
- Fortalecimento da governança de dados: A segurança das informações utilizadas nos modelos de IA exige práticas como anonimização, criptografia e controle rigoroso de acesso. A falha nesse processo pode gerar sanções da Autoridade Nacional de Proteção de Dados (ANPD).
Transformações recentes e contexto atual
O governo brasileiro lançou, em julho de 2024, o Plano Brasileiro de Inteligência Artificial (PBIA) 2024–2028, com orçamento de R$ 1,76 bilhão para transformar os serviços públicos por meio da IA, com foco na eficiência e inclusão social. O plano prevê a capacitação de cerca de 115 mil servidores até 2026, o que representa aproximadamente 20% do efetivo federal.
Um estudo da Organização Internacional do Trabalho (OIT) revelou que 37% dos empregos no Brasil estão expostos à IA generativa — equivalente a 37 milhões de postos de trabalho —, sendo um dos índices mais altos da América Latina. Além disso, 70% dos servidores públicos brasileiros acreditam que a IA aumentará a produtividade de suas áreas, acima da média global de 52,3%. No entanto, apenas 54% dos brasileiros afirmaram ter utilizado alguma ferramenta de IA em 2024, o que demonstra uma lacuna significativa entre confiança e adoção efetiva da tecnologia.
Por que isso importa?
- Risco de vieses e aprofundamento de desigualdades: A ausência de diretrizes claras pode levar a decisões automatizadas discriminatórias, afetando de forma desproporcional grupos vulneráveis e agravando desigualdades regionais e sociais.
- Transformação do mercado de trabalho: A automação parcial ou total de funções impacta diretamente o futuro das profissões, exigindo políticas públicas de requalificação e proteção social para mitigar riscos de desemprego ou precarização.
- Desafios de governança e segurança da informação: Com a criação de repositórios públicos em nuvem, torna-se essencial assegurar a proteção de dados pessoais por meio de técnicas robustas e conformidade com a LGPD.
- Construção de confiança e legitimidade: Apesar do otimismo com a IA, a compreensão da população sobre o uso de seus dados ainda é limitada. A transparência ativa, com divulgação de relatórios e auditorias independentes, é fundamental para garantir legitimidade e confiança nas políticas digitais.