(AVISO DE CONTEÚDO SENSÍVEL: a matéria a seguir aborda temas como suicídio e automutilação. Recomendamos que usuários com gatilhos relacionados a esses tópicos exerçam cautela ao ler.)
A OpenAI, empresa dona da interface de inteligência artificial ChatGPT, segue enfrentando problemas judiciais decorrente da falta de observação às interações do programa com adolescentes e crianças, bem como assuntos sensíveis de natureza perigosa à integridade do usuário – como, por exemplo, o polêmico caso deste ano em que uma pessoa usou o ChatGPT para planejar e executar o próprio suicídio.
Leia Mais: Trump sanciona acordo que encerra paralisação do governo dos Estados Unidos
A Associated Press (AP) relata que a big tech reúne contra si sete processos neste mesmo tópico, isto é, dizendo que pessoas foram induzidas ao suicídio ou à ideação da automutilação mesmo sem ter antecedentes de transtornos mentais e/ou emocionais.
Os processos, registrados no dia 04/11, alegam morte injusta, auxílio ao suicídio, homicídio culposo e negligência. As ações foram movidas em nome de seis adultos e um adolescente pela Social Media Victims Law Center and Tech Justice Law Project (do inglês, “Projeto de Justiça Legal para Vítimas das Redes Sociais e Tecnologia”). Das sete vítimas, quatro morreram por suicídio.
Além das alegações, a representante das vítimas também afirma que a OpenAI liberou, sabidamente, a versão GPT-4o da interface de forma prematura; ignorando avisos internos de que o módulo de inteligência da versão seria “perigosamente bajulador e psicologicamente manipulador”.
Amaurie Lacey
Um dos casos listados no processo e mostrados pela AP no relatório original é o de Amaurie Lacey, jovem de 17 anos que usava o ChatGPT para obter ajuda. Segundo as alegações iniciais do processo, o “defeituoso e inerentemente perigoso ChatGPT causou vício, depressão e, eventualmente, aconselhou o jovem [Lacey] sobre o modo mais eficaz de amarrar uma corda em seu pescoço e quanto tempo conseguiria ‘viver sem respirar’”.
“A morte de Amaurie não foi um acidente ou consequência, mas sim a previsível consequência da decisão intencional da OpenAI e de Sam Altman [CEO da empresa] de restringir testes de segurança para lançar o ChatGPT no mercado o mais rápido possível”, elabora o texto do processo.
Matthew P. Bergman, advogado fundador do grupo que representa as vítimas, afirmou que os processos servem para “responsabilizar o produto, que foi desenhado para borrar os limites entre ferramenta e companheiro em nome do aumento no engajamento e valor de mercado”. Para Bergman, a OpenAI “criou o GPT-4o para envolver os usuários, independentemente de idade, gênero ou contexto social, e o lançou sem os parâmetros de segurança necessários para protegê-los”.
A OpenAI afirma que está avaliando cada caso de forma individual, comentando que são todos incidentes “desoladores”.
