Tecnologia, Ética e Justiça: A Nova Lei Contra a Violência Psicológica com Uso de IA
No dia 25 de abril de 2025, foi publicada no Diário Oficial da União a Lei nº 15.123/2025, sancionada pelo presidente Luiz Inácio Lula da Silva. A nova norma agrava a pena para quem praticar violência psicológica contra a mulher utilizando inteligência artificial (IA) ou qualquer outra tecnologia que altere imagem ou voz da vítima.
Com essa mudança, a pena prevista para o crime — que varia de seis meses a dois anos de reclusão e multa — poderá ser aumentada em até 50% quando houver o uso dessas tecnologias.
O que aconteceu?
Essa atualização no Código Penal brasileiro é uma resposta direta ao crescimento dos chamados deepfakes — vídeos, áudios ou imagens falsificados com IA, muitas vezes usados para humilhar, ameaçar ou chantagear mulheres. A prática, que já era criminosa como violência psicológica, agora recebe tratamento ainda mais rigoroso quando envolve manipulação tecnológica.
O projeto de lei foi de autoria da deputada Jandira Feghali (PCdoB-RJ) e teve relatoria da senadora Daniella Ribeiro (PP-PB). Aprovado durante o Mês da Mulher, o texto reforça a necessidade de atualizar o sistema jurídico frente às novas formas de agressão digital.
Por que é importante?
Porque a tecnologia não pode ser escudo para a violência.
Ferramentas de IA que alteram rostos, vozes e criam realidades falsas têm potencial devastador para a saúde mental, reputação e autonomia das mulheres. Sem uma legislação firme, agressões digitais correm o risco de serem banalizadas — ou mesmo invisibilizadas.
Ao reconhecer oficialmente o uso da IA como agravante, o Brasil envia um recado claro: quem usa a tecnologia para ferir não ficará impune.
Como isso afeta as organizações?
As organizações — públicas e privadas — precisam agir agora.
Não basta apenas cumprir a nova lei: é essencial fortalecer políticas internas de:
- Ética e responsabilidade no uso de IA;
- Educação digital para colaboradores;
- Prevenção e combate à violência de gênero nas plataformas e ambientes de trabalho;
- Canal seguro de denúncias sobre violência digital.
Além disso, áreas de tecnologia e compliance devem revisar procedimentos de monitoramento e resposta a incidentes de abuso tecnológico.
Transformação digital sem responsabilidade é risco jurídico e reputacional. A inovação precisa caminhar junto com os direitos humanos.
Uma reflexão necessária
Estamos entrando em uma nova era: a era da responsabilidade digital.
IA, deepfakes e manipulação de dados podem ser usadas para construir — ou para destruir. A escolha é nossa. E agora, também é uma obrigação legal.
Tecnologia deve servir para libertar, não para aprisionar.
E você, na sua organização, já está preparado para garantir que a inovação respeite valores éticos e humanos?
#IAÉtica #ViolênciaDigitalNão #TecnologiaResponsável #Deepfakes #Lei15123 #ProteçãoÀMulher #TransformaçãoComValores #FábioCorreaXavier #GovernançaDigital