Inteligência artificial, violência real
Crianças e adolescentes no centro da barbárie: inteligência artificial sendo utilizada como instrumento de propagação da violência sexual.
Anna Luiza Calixto
Há um limite que, quando ultrapassado, deixa de ser debate tecnológico e passa a ser urgência civilizatória. A proliferação de fake nudes gerados por inteligência artificial (especialmente envolvendo crianças e adolescentes) é mais que um uso “desviado” da tecnologia, é um sistema que opera sem regulação efetiva, sem responsabilidade social e com impactos diretos sobre corpos que deveriam ser, por definição, invioláveis.
Os números ajudam a compreender a dimensão do problema. Um levantamento divulgado pela agência Bloomberg revelou que, em um único dia, cerca de 6.700 imagens por hora foram identificadas como sexualmente sugestivas em uma ferramenta de geração por IA. Ao final desse período, esse tipo de conteúdo correspondia a 85% de todas as imagens geradas. Ainda que a maioria dessas produções tenha como alvo mulheres adultas, o dado expõe algo estrutural: a inteligência artificial tem sido amplamente usada para sexualizar corpos. E, quando a lógica é essa, corpos infantis se tornam alvos frágeis.
A tecnologia amplia, automatiza e escala violências já existentes. Em uma sociedade que historicamente erotiza meninas, silencia abusos e naturaliza a exposição precoce, a IA passa a funcionar como uma máquina de reprodução da violência sexual. Com poucos cliques, uma fotografia comum retirada de uma rede social, de um álbum de família ou de um perfil escolar pode ser transformada em uma imagem pornográfica. O corpo é falso, mas o dano é absolutamente real.
É preciso dizer sem rodeios: fake nude de criança ou adolescente é violência sexual. Não importa se a imagem foi “criada, “simulada” ou “gerada artificialmente. O efeito sobre a vítima envolve humilhação, medo, ansiedade, isolamento social e, em muitos casos, abandono escolar. A circulação dessas imagens rompe a noção de segurança, destrói vínculos e impõe às infâncias um peso que nunca deveria existir.
Há uma inversão perigosa de responsabilidades. Espera-se que crianças e adolescentes saibam se proteger de tecnologias que adultos não conseguem regular. Exige-se educação digital, mas tolera-se um mercado que lucra com ferramentas capazes de produzir conteúdo sexual envolvendo menores. Fala-se em inovação, mas ignora-se o custo humano dessa inovação quando ela opera sem limites éticos.
A falta de regulação da IA não é neutra. Ela favorece quem já detém poder econômico e tecnológico e expõe ainda mais quem está em posição de vulnerabilidade. Crianças e adolescentes não têm meios legais, emocionais ou institucionais para enfrentar sozinhos a circulação de imagens falsas que os violentam. Quando o Estado se omite, quando as plataformas se esquivam e quando a sociedade minimiza, o recado é claro: a infância pode esperar.Mas não pode.
Regular a inteligência artificial não é censura e não é medo do futuro. É proteção de direitos fundamentais.
A pergunta que precisamos fazer não é se a inteligência artificial pode sair do controle… Ela já saiu. A pergunta é quantas crianças ainda terão seus corpos violados virtualmente antes que decidamos, coletivamente, colocar limites reais nessa tecnologia.E essa está longe de ser uma questão do futuro. É uma urgência presente.


