Superinteligência Artificial e o Risco de Guerra: um alerta que precisamos levar a sério

Compartilhe:

Em maio de 2025, uma declaração de impacto global ganhou os holofotes. Eric Schmidt, ex-CEO do Google e um dos maiores nomes da indústria tecnológica, lançou um alerta preocupante:

“A corrida pela Superinteligência Artificial pode causar guerras.”

Não é exagero. Estamos à beira de uma nova corrida armamentista — não mais baseada em armas nucleares, mas em códigos, dados e algoritmos capazes de superar a própria inteligência humana.

O que está acontecendo?

O conceito de Super IA refere-se a sistemas que não apenas imitam a cognição humana, mas que a superam em velocidade, complexidade e capacidade de tomada de decisão. Grandes potências como Estados Unidos, China, União Europeia e conglomerados tecnológicos globais estão investindo bilhões nessa corrida.

O problema?
Estamos avançando mais rápido na criação dessas inteligências do que na construção de mecanismos de governança, ética e contenção. E, como a história já nos mostrou, o vácuo regulatório em disputas de poder é terreno fértil para instabilidade.

Por que isso importa?

Porque, pela primeira vez na história, estamos diante de uma tecnologia que pode:

  • Tomar decisões críticas em escalas globais, inclusive sobre segurança e defesa;
  • Ampliar desigualdades sociais e econômicas se usada de forma concentrada;
  • Substituir processos humanos em áreas sensíveis — da saúde à justiça — sem plena compreensão dos impactos.

A Super IA não é mais ficção científica. Ela está sendo projetada, treinada e testada em tempo real. E sua gestão definirá as próximas décadas — talvez os próximos séculos.

O que isso significa para as organizações?

Empresas públicas e privadas precisam entender que governança de IA deixou de ser diferencial competitivo — virou pré-requisito estratégico.

Quem lidera com responsabilidade entende que inovar não é apenas escalar tecnologia, mas garantir que ela esteja a serviço da sociedade, e não acima dela.

É hora de agir com:

  • Políticas éticas claras para desenvolvimento e uso da IA
  • Auditorias constantes sobre algoritmos e decisões automatizadas
  • Transparência e prestação de contas, especialmente quando se trata de IA em serviços públicos

Estamos preparados?

Essa é a provocação que deixo:
Estamos realmente prontos para conviver com uma inteligência superior à nossa?
Ou estamos repetindo os mesmos erros do passado — só que agora com máquinas tomando decisões que sequer compreendemos?

Não é um exagero. É um chamado à ação.

Conclusão

A era da Super IA exige mais do que inovação. Exige liderança ética, visão global e coragem para definir limites. Ignorar esse debate é abdicar do futuro.

📎 Leia também a matéria original no Valor Econômico

jpg_20230125_160930_0000
Fábio Correa Xavier

Fábio Correa Xavier é Mestre em Ciência da Computação pela Universidade de São Paulo,com MBA em Gestão de Negócios pelo Ibmec/RJ, e Especialização Network Engineering pela Japan International Cooperation Agency (JICA). Atualmente é CIO do Tribunal de Contas do Estado de São Paulo, Professor e Coordenador de graduação e pós-graduação e colunista da MIT Technology Review Brasil e da IT Forum. Possui as certificações CIPM e CDPO/BR (IAPP – International Association of Privacy Professionals), CC((ISC)² e EXIN Privacy and Data Protection. É autor de vários livros sobre tecnologia, inovação, privacidade, proteção de dados e LGPD, com destaque para o Best Seller “CIO 5.0“, semifinalista do Prêmio Jabuti 2024 e destaque da Revista Exame e também de Mapa da Liderança.