Tecnologia, Ética e Justiça: A Nova Lei Contra a Violência Psicológica com Uso de IA

Compartilhe:

No dia 25 de abril de 2025, foi publicada no Diário Oficial da União a Lei nº 15.123/2025, sancionada pelo presidente Luiz Inácio Lula da Silva. A nova norma agrava a pena para quem praticar violência psicológica contra a mulher utilizando inteligência artificial (IA) ou qualquer outra tecnologia que altere imagem ou voz da vítima.

Com essa mudança, a pena prevista para o crime — que varia de seis meses a dois anos de reclusão e multa — poderá ser aumentada em até 50% quando houver o uso dessas tecnologias.

O que aconteceu?

Essa atualização no Código Penal brasileiro é uma resposta direta ao crescimento dos chamados deepfakes — vídeos, áudios ou imagens falsificados com IA, muitas vezes usados para humilhar, ameaçar ou chantagear mulheres. A prática, que já era criminosa como violência psicológica, agora recebe tratamento ainda mais rigoroso quando envolve manipulação tecnológica.

O projeto de lei foi de autoria da deputada Jandira Feghali (PCdoB-RJ) e teve relatoria da senadora Daniella Ribeiro (PP-PB). Aprovado durante o Mês da Mulher, o texto reforça a necessidade de atualizar o sistema jurídico frente às novas formas de agressão digital.

Por que é importante?

Porque a tecnologia não pode ser escudo para a violência.
Ferramentas de IA que alteram rostos, vozes e criam realidades falsas têm potencial devastador para a saúde mental, reputação e autonomia das mulheres. Sem uma legislação firme, agressões digitais correm o risco de serem banalizadas — ou mesmo invisibilizadas.

Ao reconhecer oficialmente o uso da IA como agravante, o Brasil envia um recado claro: quem usa a tecnologia para ferir não ficará impune.

Como isso afeta as organizações?

As organizações — públicas e privadas — precisam agir agora.
Não basta apenas cumprir a nova lei: é essencial fortalecer políticas internas de:

  • Ética e responsabilidade no uso de IA;
  • Educação digital para colaboradores;
  • Prevenção e combate à violência de gênero nas plataformas e ambientes de trabalho;
  • Canal seguro de denúncias sobre violência digital.

Além disso, áreas de tecnologia e compliance devem revisar procedimentos de monitoramento e resposta a incidentes de abuso tecnológico.

Transformação digital sem responsabilidade é risco jurídico e reputacional. A inovação precisa caminhar junto com os direitos humanos.

Uma reflexão necessária

Estamos entrando em uma nova era: a era da responsabilidade digital.
IA, deepfakes e manipulação de dados podem ser usadas para construir — ou para destruir. A escolha é nossa. E agora, também é uma obrigação legal.

Tecnologia deve servir para libertar, não para aprisionar.

E você, na sua organização, já está preparado para garantir que a inovação respeite valores éticos e humanos?


#IAÉtica #ViolênciaDigitalNão #TecnologiaResponsável #Deepfakes #Lei15123 #ProteçãoÀMulher #TransformaçãoComValores #FábioCorreaXavier #GovernançaDigital

jpg_20230125_160930_0000
Fábio Correa Xavier

Fábio Correa Xavier é Mestre em Ciência da Computação pela Universidade de São Paulo,com MBA em Gestão de Negócios pelo Ibmec/RJ, e Especialização Network Engineering pela Japan International Cooperation Agency (JICA). Atualmente é CIO do Tribunal de Contas do Estado de São Paulo, Professor e Coordenador de graduação e pós-graduação e colunista da MIT Technology Review Brasil e da IT Forum. Possui as certificações CIPM e CDPO/BR (IAPP – International Association of Privacy Professionals), CC((ISC)² e EXIN Privacy and Data Protection. É autor de vários livros sobre tecnologia, inovação, privacidade, proteção de dados e LGPD, com destaque para o Best Seller “CIO 5.0“, semifinalista do Prêmio Jabuti 2024 e destaque da Revista Exame e também de Mapa da Liderança.