Uso ético da IA no setor público

Compartilhe:

Uso ético da inteligência artificial no setor público: desafios, avanços e oportunidades

Diversas iniciativas recentes, tanto por parte de órgãos de controle quanto por recomendações de organismos internacionais, reforçam a urgência de equilibrar inovação tecnológica com transparência, responsabilidade e proteção de direitos fundamentais no uso de inteligência artificial (IA) pelo setor público.

O que aconteceu?

Em julho de 2024, o Tribunal de Contas da União (TCU) publicou as Diretrizes Éticas para IA na Administração Pública, com o objetivo de oferecer um arcabouço não vinculante para orientar órgãos públicos brasileiros na adoção de sistemas de IA, com base em princípios como transparência, equidade e prestação de contas.

No âmbito legislativo, o Senado Federal aprovou, em dezembro de 2024, o Projeto de Lei nº 2338/2023, que estabelece princípios e normas gerais para o desenvolvimento, uso e fiscalização de tecnologias de IA no país. O texto encontra-se em análise na Câmara dos Deputados.

Em maio de 2025, pesquisadores brasileiros divulgaram o Guia de Princípios para o Uso Ético e Responsável de IA em Pesquisa, reforçando valores como proteção de dados, mitigação de vieses algorítmicos e preservação da autonomia humana em decisões automatizadas.

A nível internacional, a UNESCO, por meio de seu observatório global, destacou a ausência de legislação nacional específica sobre IA no Brasil, recomendando que o país se alinhe às orientações internacionais de direitos e governança, a fim de não comprometer a confiança da sociedade nas instituições públicas.

Por que isso é importante?

  • Proteção de direitos fundamentais: A aplicação de IA em decisões que afetam diretamente a vida dos cidadãos — como concessão de benefícios, fiscalização tributária ou seleção de projetos — pode reproduzir ou intensificar desigualdades, caso não haja mecanismos de mitigação de vieses.
  • Manutenção da confiança pública: Sistemas automatizados opacos comprometem a transparência e dificultam a identificação de falhas, minando a confiança social, especialmente quando órgãos de controle encontram dificuldades em auditar os algoritmos utilizados.
  • Responsabilidade e prestação de contas: A ausência de diretrizes claras pode levar à responsabilização indevida de agentes públicos por decisões tomadas por sistemas automatizados, enfraquecendo a governança e gerando insegurança jurídica.
  • Conformidade com padrões internacionais: Entidades como a UNESCO e a OCDE recomendam a adoção de frameworks éticos antes da ampliação do uso de IA no setor público. O não alinhamento pode acarretar sanções ou exclusão de cooperação técnica internacional.

Como isso afeta a vida das organizações públicas?

  • Capacitação e letramento digital: É essencial capacitar os servidores públicos sobre os aspectos técnicos e éticos da IA, promovendo a compreensão sobre riscos de viés, auditoria de algoritmos e limites da automação.
  • Criação de políticas de governança: Escritórios de TI e comissões de integridade devem estabelecer políticas específicas para aquisição, implantação e monitoramento de soluções de IA, incluindo avaliações de impacto sobre direitos e mecanismos para correção de falhas.
  • Riscos reputacionais e jurídicos: O uso indevido de IA pode provocar reações sociais imediatas, incluindo responsabilização pública, ações judiciais e danos à imagem institucional.
  • Exigência de transparência e auditoria: Sistemas automatizados precisam ser auditáveis e compreensíveis. Isso demanda relatórios técnicos acessíveis e a criação de instâncias independentes para fiscalização dos algoritmos quanto aos princípios de não discriminação e justiça.
  • Fortalecimento da governança de dados: A segurança das informações utilizadas nos modelos de IA exige práticas como anonimização, criptografia e controle rigoroso de acesso. A falha nesse processo pode gerar sanções da Autoridade Nacional de Proteção de Dados (ANPD).

Transformações recentes e contexto atual

O governo brasileiro lançou, em julho de 2024, o Plano Brasileiro de Inteligência Artificial (PBIA) 2024–2028, com orçamento de R$ 1,76 bilhão para transformar os serviços públicos por meio da IA, com foco na eficiência e inclusão social. O plano prevê a capacitação de cerca de 115 mil servidores até 2026, o que representa aproximadamente 20% do efetivo federal.

Um estudo da Organização Internacional do Trabalho (OIT) revelou que 37% dos empregos no Brasil estão expostos à IA generativa — equivalente a 37 milhões de postos de trabalho —, sendo um dos índices mais altos da América Latina. Além disso, 70% dos servidores públicos brasileiros acreditam que a IA aumentará a produtividade de suas áreas, acima da média global de 52,3%. No entanto, apenas 54% dos brasileiros afirmaram ter utilizado alguma ferramenta de IA em 2024, o que demonstra uma lacuna significativa entre confiança e adoção efetiva da tecnologia.

Por que isso importa?

  • Risco de vieses e aprofundamento de desigualdades: A ausência de diretrizes claras pode levar a decisões automatizadas discriminatórias, afetando de forma desproporcional grupos vulneráveis e agravando desigualdades regionais e sociais.
  • Transformação do mercado de trabalho: A automação parcial ou total de funções impacta diretamente o futuro das profissões, exigindo políticas públicas de requalificação e proteção social para mitigar riscos de desemprego ou precarização.
  • Desafios de governança e segurança da informação: Com a criação de repositórios públicos em nuvem, torna-se essencial assegurar a proteção de dados pessoais por meio de técnicas robustas e conformidade com a LGPD.
  • Construção de confiança e legitimidade: Apesar do otimismo com a IA, a compreensão da população sobre o uso de seus dados ainda é limitada. A transparência ativa, com divulgação de relatórios e auditorias independentes, é fundamental para garantir legitimidade e confiança nas políticas digitais.
jpg_20230125_160930_0000
Fábio Correa Xavier

Fábio Correa Xavier é Mestre em Ciência da Computação pela Universidade de São Paulo,com MBA em Gestão de Negócios pelo Ibmec/RJ, e Especialização Network Engineering pela Japan International Cooperation Agency (JICA). Atualmente é CIO do Tribunal de Contas do Estado de São Paulo, Professor e Coordenador de graduação e pós-graduação e colunista da MIT Technology Review Brasil e da IT Forum. Possui as certificações CIPM e CDPO/BR (IAPP – International Association of Privacy Professionals), CC((ISC)² e EXIN Privacy and Data Protection. É autor de vários livros sobre tecnologia, inovação, privacidade, proteção de dados e LGPD, com destaque para o Best Seller “CIO 5.0“, semifinalista do Prêmio Jabuti 2024 e destaque da Revista Exame e também de Mapa da Liderança.