OpenAI é denunciada em sete processos por “induzir usuários ao suicídio” no ChatGPT

Representante das vítimas afirma no processo que algumas delas sequer possuíam antecedentes de transtornos mentais e/ou emocionais

Por Redação TMC | Atualizado em
Homem no escuro, com a tela do computador ligada, escrevendo em um caderno à mão
Processos alegam morte injusta, auxílio ao suicídio, homicídio culposo e negligência (Foto: Victor Sutty/Unsplash)

(AVISO DE CONTEÚDO SENSÍVEL: a matéria a seguir aborda temas como suicídio e automutilação. Recomendamos que usuários com gatilhos relacionados a esses tópicos exerçam cautela ao ler.)

A OpenAI, empresa dona da interface de inteligência artificial ChatGPT, segue enfrentando problemas judiciais decorrente da falta de observação às interações do programa com adolescentes e crianças, bem como assuntos sensíveis de natureza perigosa à integridade do usuário – como, por exemplo, o polêmico caso deste ano em que uma pessoa usou o ChatGPT para planejar e executar o próprio suicídio.

Leia Mais: Trump sanciona acordo que encerra paralisação do governo dos Estados Unidos

A Associated Press (AP) relata que a big tech reúne contra si sete processos neste mesmo tópico, isto é, dizendo que pessoas foram induzidas ao suicídio ou à ideação da automutilação mesmo sem ter antecedentes de transtornos mentais e/ou emocionais.

Os processos, registrados no dia 04/11, alegam morte injusta, auxílio ao suicídio, homicídio culposo e negligência. As ações foram movidas em nome de seis adultos e um adolescente pela Social Media Victims Law Center and Tech Justice Law Project (do inglês, “Projeto de Justiça Legal para Vítimas das Redes Sociais e Tecnologia”). Das sete vítimas, quatro morreram por suicídio.

Além das alegações, a representante das vítimas também afirma que a OpenAI liberou, sabidamente, a versão GPT-4o da interface de forma prematura; ignorando avisos internos de que o módulo de inteligência da versão seria “perigosamente bajulador e psicologicamente manipulador”.

Amaurie Lacey

Um dos casos listados no processo e mostrados pela AP no relatório original é o de Amaurie Lacey, jovem de 17 anos que usava o ChatGPT para obter ajuda. Segundo as alegações iniciais do processo, o “defeituoso e inerentemente perigoso ChatGPT causou vício, depressão e, eventualmente, aconselhou o jovem [Lacey] sobre o modo mais eficaz de amarrar uma corda em seu pescoço e quanto tempo conseguiria ‘viver sem respirar’”.

“A morte de Amaurie não foi um acidente ou consequência, mas sim a previsível consequência da decisão intencional da OpenAI e de Sam Altman [CEO da empresa] de restringir testes de segurança para lançar o ChatGPT no mercado o mais rápido possível”, elabora o texto do processo.

Matthew P. Bergman, advogado fundador do grupo que representa as vítimas, afirmou que os processos servem para “responsabilizar o produto, que foi desenhado para borrar os limites entre ferramenta e companheiro em nome do aumento no engajamento e valor de mercado”. Para Bergman, a OpenAI “criou o GPT-4o para envolver os usuários, independentemente de idade, gênero ou contexto social, e o lançou sem os parâmetros de segurança necessários para protegê-los”.

A OpenAI afirma que está avaliando cada caso de forma individual, comentando que são todos incidentes “desoladores”.

Ao vivo
São Paulo
Ouça a TMC pelo Brasil
  • 100,1FM São Paulo
  • 101,3FM Rio de Janeiro
  • 100,3FM Curitiba
  • 88,7FM Belo Horizonte
  • 92,7FM Recife
  • 100,1FM Brasília
Notícias que importam para você
Copyright © 2026 CNPJ: 07.577.172/0001-71