O caso envolvendo pelo menos 17 estudantes do ensino médio do Colégio Santa Maria, em Belo Horizonte (MG), que relataram ter suas fotos alteradas por inteligência artificial (IA) para gerar conteúdo pornográfico causou grande preocupação entre o público feminino nas redes sociais. A manipulação digital de imagens, conhecida como deepfake, tornou-se um temor crescente devido ao rápido avanço das tecnologias de IA globalmente.
O tema chegou à Câmara dos Deputados, que aprovou recentemente um projeto de lei (PL) que considera a manipulação digital e a divulgação de nudez ou atos sexuais falsos produzidos por IA como crime previsto no Código Penal. A matéria ainda aguarda votação no Senado Federal.
Se sancionada, a lei poderá punir o delito com pena de reclusão de 2 a 6 anos e multa, salvo se configurar infração mais grave. A pena será aumentada de um terço a metade se a vítima for mulher, criança, adolescente, idoso ou pessoa com deficiência. Caso a divulgação seja massiva por meio das redes sociais ou plataformas digitais, a pena poderá ser aumentada de um terço ao dobro.
Caso Colégio Santa Maria (MG)
Pelo menos 17 jovens do ensino médio da instituição em Belo Horizonte denunciaram que suas imagens foram manipuladas via IA para criar material pornográfico falso. A denúncia foi divulgada pela influenciadora Ive Moreira, de 21 anos, irmã de um ex-aluno, em um vídeo no TikTok.
Ive Moreira afirmou que há mais de um ano estudantes da escola vêm usando fotos das vítimas, postadas em redes sociais, para gerar imagens íntimas falsas que circulam em grupos de Telegram e WhatsApp. “Qualquer pessoa pode acessar esses conteúdos”, afirmou.
A influenciadora alerta que as vítimas, entre 12 e 17 anos, têm seus nomes vinculados às imagens que circulam entre estudantes. Há indícios de que o material também estava sendo comercializado por um aluno no mesmo colégio.
A advogada especialista em direito penal e digital, Jéssica Marques, orienta que vítimas de fotos reproduzidas por IA sem autorização devem reunir todas as provas possíveis para identificar os responsáveis. O primeiro passo é registrar a foto alterada e o endereço URL. “Se a imagem foi retirada das redes sociais, é importante verificar quem visualizou e anexar esses dados como prova para identificar o culpado”, explica.
Ela também recomenda que usuários evitem divulgar ou compartilhar dados pessoais, não atendam chamadas de vídeo desconhecidas e limitem o acesso a vídeos e imagens nas redes para evitar seu uso para criação de conteúdos por IA.
Por fim, Jéssica Marques reforça a importância de denunciar o uso indevido da imagem, notificar a plataforma para colaboração na identificação dos responsáveis e registrar ocorrência em delegacia especializada para investigação.
VEO 3
Vídeos produzidos por IA têm ganhado destaque nas redes sociais, causando confusão ao simular situações reais. O modelo VEO 3, lançado pelo Google, permite adicionar efeitos sonoros, ruídos ambientais e diálogos conforme solicitação do usuário.
Em resposta à reportagem sobre uso da IA para conteúdo explícito, o Google afirmou que suas políticas proíbem a utilização dos modelos para fins sexualmente explícitos, violentos, de ódio, bullying, desinformação e fraudes. Para garantir transparência, a tecnologia SynthID insere marcas d’água digitais em todos os conteúdos gerados por IA do Google, incluindo uma marca visível em vídeos para ajudar na identificação da origem, exceto para vídeos gerados por membros Ultra no Flow, ferramenta da empresa para cineastas.
IA e seus impactos
O professor de direito da Universidade de Brasília (UnB), Alexandre Veronese, expressou preocupação quanto à eficácia das leis atuais no combate aos crimes digitais no Brasil.
Ele destaca que, apesar da legislação brasileira seguir a Convenção de Budapeste, o país enfrenta desafios jurídicos significativos. Sugere revisão do Código Penal e do Código de Processo Penal para melhorar a tipificação e os procedimentos processuais, alinhando-os completamente à Convenção e seus protocolos adicionais sobre racismo, xenofobia e cooperação internacional em provas.
Alexandre Veronese também ressalta a questão da integração entre crimes cibernéticos e proteção de dados pessoais. A Lei Geral de Proteção de Dados Pessoais (LGPD) exclui sua aplicação em investigações criminais e segurança pública, mas a Constituição Federal reconhece a proteção de dados como um direito fundamental que deve incidir em todas as áreas. Essa incoerência gera insegurança jurídica enquanto outros países já solucionaram o tema. Segundo ele, é urgente que o Brasil adeque sua legislação, conforme apontado pelo Supremo Tribunal Federal (STF) na ADC 51.
Ele ainda comenta que o avanço da IA traz implicações para a criminalidade: embora a tecnologia possa otimizar processos, também facilita fraudes e violações de direitos, tornando-se mais acessível. Propõe criação de agravantes penais e aumento de indenizações para crimes praticados com auxílio de IA, como forma de desestimular esses usos ilícitos. Contudo, alerta que proibir o uso da IA ou impor restrições severas sem critérios adequados pode ser contraproducente e ineficaz diante da realidade da tecnologia.