Deepfakes de conteúdo sexual em instituições de ensino: 600 vítimas em 28 países e casos confirmados no Brasil

Deepfakes de conteúdo sexual em instituições de ensino: 600 vítimas em 28 países e casos confirmados no Brasil

Aplicativos que convertem fotos comuns em nudes falsos têm sido usados por adolescentes para cometer abuso sexual contra colegas em pelo menos 28 países. Desde 2023, mais de 600 estudantes foram vítimas desse crime em cerca de 90 instituições, segundo um levantamento inédito das publicações WIRED e Indicator.

O procedimento é quase sempre o mesmo. Uma foto baixada do Instagram ou do Snapchat é enviada a um aplicativo de nudificação e, em seguida, a montagem explícita com o rosto da vítima passa a circular em grupos de WhatsApp ou Telegram da escola. Em questão de minutos, dezenas de colegas já têm acesso.

smart_display

Vídeos em destaque

Apps de “tirar roupa” eliminaram a barreira técnica para o abuso

Deepfakes sexuais são imagens ou vídeos de nudez produzidos por IA generativa sem o consentimento das pessoas retratadas. A tecnologia pode criar conteúdo totalmente sintético ou manipular fotos reais para montar imagens hiper-realistas com rostos e corpos alterados.

Aplicativos de nudificação recorrem à IA generativa para manipular fotos reais e montar imagens explícitas sem o consentimento das vítimas.

A expansão desse tipo de abuso nas escolas está diretamente ligada à proliferação de apps conhecidos como “nudify” ou “undress”. Dezenas de aplicativos, bots e sites permitem gerar imagens sexualizadas de terceiros com poucos cliques, sem necessidade de conhecimento técnico.

Na maior parte dos casos mapeados, os autores das imagens eram meninos adolescentes. Uma pesquisa da Unicef estima que 1,2 milhão de crianças tiveram deepfakes sexuais produzidos com sua imagem apenas no ano passado. Na Espanha, uma em cada cinco crianças disse a pesquisadores do Save the Children que nudes falsos foram feitos usando sua foto.

As motivações variam: pesquisas com adolescentes apontam curiosidade, desejo de vingança e “desafios” entre colegas como fatores recorrentes.

posse-de-smartphone-por-pre-adolescentes-aumenta-risco-de-depressao
Na maior parte dos casos levantados pela WIRED e Indicator, as imagens falsas foram compartilhadas em grupos de mensagens entre colegas de escola.

Vítimas têm medo de que as imagens circulem para sempre

O impacto sobre as vítimas é descrito em múltiplos relatos. “Estou preocupada que toda vez que me vejam, elas vejam aquelas fotos”, disse uma adolescente de Iowa, nos EUA, no início deste ano. Outra família relatou que a filha ficou “chorando e sem comer”. Em vários episódios, as vítimas passaram a evitar a escola para não encontrar quem criou as imagens.

Advogados que representam uma adolescente de New Jersey em processo contra um serviço de nudificação disseram que a cliente sabe que as imagens já estão na internet e que terá de fiscalizar a rede pelo resto da vida para tentar impedir a circulação.

“Frequentemente, quando crianças falam sobre o que aconteceu com elas, a resposta é inadequada”, afirmou Afrooz Kaviani Johnson, especialista em proteção infantil da Unicef. “A reação dos adultos pode afetar tanto a recuperação da vítima quanto a probabilidade de ela voltar a procurar ajuda se algo mais ocorrer.”

menina-escondendo-o-rosto
Vítimas relatam medo de frequentar a escola e receio de que as imagens circulem indefinidamente na internet.

Resposta de escolas e autoridades ainda é desigual

A reação de escolas e autoridades ao problema tem sido desigual. Há relatos de casos em que a escola demorou três dias para acionar a polícia e de vítimas que afirmam não ter havido consequências imediatas para os agressores.

Em outros episódios, alunos enfrentaram acusações criminais por posse e criação de material de abuso sexual infantil. Em março de 2025, dois estudantes da Pensilvânia admitiram culpa em tribunal juvenil e foram condenados a 60 horas de serviço comunitário por terem criado imagens e vídeos de 60 meninas.

Algumas instituições passaram a adotar medidas preventivas, como remover fotos de alunos de perfis oficiais ou substituí-las por silhuetas e imagens de costas. Na Coreia do Sul e na Austrália, estudantes foram orientados a não aparecer em anuários escolares.

empresas-de-ia-se-comprometem-a-combater-deepfakes-de-pornografia-thumb.png
A tecnologia de deepfake possibilita alterar rostos e corpos em fotos e vídeos com poucos cliques e sem necessidade de conhecimento técnico.

A pressão por respostas legais tem vindo, em grande parte, das próprias vítimas e de suas famílias. Nos Estados Unidos, adolescentes ajudaram a criar o Take It Down Act, lei que obriga plataformas a remover imagens íntimas não consensuais em até 48 horas. Reino Unido e União Europeia trabalham em proibir aplicativos de nudificação.

Brasil tem casos confirmados em ao menos 10 estados

O Brasil também faz parte desse cenário. Um levantamento da SaferNet Brasil identificou 16 casos de deepfakes sexuais em escolas de 10 dos 27 estados, com ao menos 72 vítimas e 57 agressores identificados — todos menores de 18 anos na época dos fatos. Os estados com registros são Alagoas, Bahia, Mato Grosso, Minas Gerais, Pará, Paraíba, Pernambuco, São Paulo, Rio de Janeiro e Rio Grande do Sul.

Em quase todos os episódios cobertos pela imprensa, os crimes ocorreram em escolas privadas. A SaferNet confirmou ainda outros três casos que não chegaram a ser noticiados, dois no Rio de Janeiro e um no Distrito Federal, envolvendo ao menos mais 10 vítimas.

video-em-reproducao-no-celular
Deepfakes sexuais produzidos por adolescentes são compartilhados em grupos de WhatsApp e Telegram, alcançando dezenas de colegas em poucos minutos.

Os episódios seguem um padrão. Em novembro de 2023, alunos do 7º ao 9º ano de uma escola no Rio de Janeiro foram suspeitos de usar IA para remover roupas de fotos de adolescentes publicadas nas redes sociais. Ao menos 20 meninas foram expostas.

Em Belo Horizonte, em junho de 2025, imagens falsas de alunas nuas circularam em grupos escolares e em fóruns do Telegram. Em Campo Grande, em fevereiro de 2026, meninos chegaram a oferecer as imagens por R$ 50 dentro da escola — o caso só veio à tona quando uma mãe soube da situação e acionou a polícia.

Em Vitória, no mesmo mês, a foto original mostrava três amigas sorrindo em um shopping, tirada um ano e meio antes. Em março de 2026, estudantes do Colégio Sagrada Família, em Blumenau, foram expulsos após criar e compartilhar nudes falsos de ao menos cinco colegas.

A SaferNet destaca que não existe, por parte das autoridades brasileiras, um monitoramento sistemático da incidência desses crimes nem do andamento das investigações. Isso dificulta mensurar a real dimensão do problema. O estudo faz parte de uma pesquisa mais ampla sobre o mau uso da IA generativa em crimes contra crianças e adolescentes, financiada pelo fundo SafeOnline, gerido pela Unicef.

Acompanhe o TecMundo nas redes sociais. Para mais notícias sobre segurança e tecnologia, inscreva-se em nossa newsletter e no canal do YouTube.

Plugin WordPress Cookie by Real Cookie Banner
scroll to top