Instituições de ensino nos Estados Unidos estão lidando com um problema crescente de alunos que utilizam inteligência artificial para transformar fotos inocentes de colegas em imagens sexualmente explícitas. O Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA registrou um salto nas denúncias desse tipo de conteúdo, que passaram de 4.700 em 2023 para 440.000 apenas no primeiro semestre de 2025. O fenômeno já levou metade dos estados americanos a criar legislações específicas sobre o uso de IA para fabricar imagens e sons, conforme dados da Conferência Nacional de Legislaturas Estaduais.
Um caso ocorrido no outono de 2025 em uma escola de ensino fundamental da Louisiana resultou em acusações criminais contra dois menores após a circulação de imagens manipuladas. Uma das vítimas acabou sendo expulsa depois de iniciar uma briga com um garoto que ela acusou de criar as imagens falsas.
Acompanhe tudo o que acontece no Brasil e no mundo: siga a TMC no WhatsApp
“Embora a capacidade de alterar imagens esteja disponível há décadas, o surgimento da IA tornou mais fácil para qualquer pessoa alterar ou criar tais imagens com pouco ou nenhum treinamento ou experiência,” destacou o xerife Craig Webre em comunicado. “Este incidente destaca uma preocupação séria que todos os pais devem abordar com seus filhos.“
Situações semelhantes têm sido reportadas em diversos estados americanos, incluindo Florida, Pensilvânia, Califórnia e Texas. A facilidade de acesso à tecnologia de IA é apontada como fator determinante para o aumento desses casos.
“Agora, você pode fazer isso em um aplicativo, pode baixar nas redes sociais, e não precisa ter nenhuma expertise técnica,” afirma Sameer Hinduja, codiretor do Centro de Pesquisa de Cyberbullying e professor na Florida Atlantic University. Ele recomenda que as escolas atualizem suas políticas sobre deepfakes. “Assim os estudantes não pensam que a equipe, os educadores são completamente alheios, o que pode fazê-los sentir que podem agir com impunidade.”
Hinduja também critica a postura de muitos pais diante do problema. “Muitos deles são tão desinformados e tão ignorantes. Ouvimos falar da síndrome do avestruz, apenas enterrando suas cabeças na areia, esperando que isso não esteja acontecendo entre seus jovens.”
Sergio Alexander, pesquisador da Universidade Cristã do Texas, explica que os deepfakes causam impactos psicológicos diferentes do bullying tradicional nas vítimas. “Eles literalmente se fecham porque isso faz parecer que, você sabe, não há como provar que isso não é real — porque parece 100% real,” disse ele, acrescentando que muitas vítimas desenvolvem depressão e ansiedade.
Alexander sugere que os pais iniciem conversas perguntando aos filhos se viram vídeos falsos online. “Com base nos números, garanto que eles dirão que conhecem alguém,” afirmou. Ele recomenda perguntar: “Você já pensou como seria se você estivesse neste vídeo?”
Leia mais: Violinista processa Will Smith por assédio sexual e demissão injusta
Para ajudar a lidar com esses incidentes, Laura Tierney, fundadora do The Social Institute, criou o acrônimo SHIELD como roteiro de resposta: “S” significa “stop” (pare); “H” é para “huddle” (se junte) a um adulto confiável; “I” é para “inform” (informe) plataformas de mídia social; “E” indica coletar “evidence” (evidências); “L” é para “limit” (limitar) acesso às mídias sociais; e “D” lembra de “direct” (direcionar ou orientar) as vítimas a buscar ajuda. “O fato de que esse acrônimo tem seis etapas, eu acho que mostra que essa questão é realmente complicada,” concluiu.
Especialistas indicam que mais estados devem implementar legislações específicas para combater deepfakes, enquanto recomendam que escolas desenvolvam políticas claras sobre o tema.
