A Unicef, agência das Nações Unidas para a infância, pediu nesta quarta-feira (4/2) que os países criminalizem a criação de conteúdo de abuso sexual infantil gerado por IA, dizendo estar alarmada com relatos de aumento no número de imagens de inteligência artificial sexualizando crianças.
A agência também solicitou para que os desenvolvedores implementem abordagens de segurança desde a concepção e barreiras de proteção para evitar o uso indevido de modelos de IA. A Unicef defende que empresas digitais impeçam a circulação dessas imagens, reforçando a moderação de conteúdo com investimentos em tecnologias de detecção.
Acompanhe tudo o que acontece no Brasil e no mundo: siga a TMC no WhatsApp
“Os danos causados pelo abuso de deepfakes são reais e urgentes. As crianças não podem esperar até que a lei acompanhe essa evolução”, afirmou a Unicef em comunicado. Deepfakes são imagens, vídeos e áudios gerados por IA que imitam pessoas reais de forma convincente.
A Unicef também levantou preocupações sobre o que chamou de “nudificação” de crianças, usando IA para tirar ou alterar roupas em fotos para criar imagens falsas de nudez ou sexualizadas.
Pelo menos 1,2 milhão de crianças em 11 países revelaram ter suas imagens manipuladas em deepfakes sexualmente explícitos no ano passado, de acordo com a Unicef.
O Reino Unido anunciou no sábado que planeja tornar ilegal o uso de ferramentas de IA para criar imagens de abuso sexual infantil, tornando-se o primeiro país a fazê-lo.
Nos últimos anos, aumentaram as preocupações com o uso da IA para gerar conteúdo de abuso infantil, particularmente chatbots como o Grok, da xAI — de propriedade de Elon Musk —, que está sob escrutínio por produzir imagens sexualizadas de mulheres e menores.
Uma investigação da Reuters apurou que o chatbot continuou a produzir essas imagens mesmo quando os usuários avisaram explicitamente que os sujeitos não haviam consentido.
A xAI disse em 14 de janeiro que havia restringido a edição de imagens para usuários da IA Grok e bloqueado usuários, com base em sua localização, de gerar imagens de pessoas com roupas reveladoras em “jurisdições onde isso é ilegal”, sem identificar os países. Anteriormente, a plataforma havia limitado o uso dos recursos de geração e edição de imagens do Grok apenas a assinantes pagantes.
Por Reuters
