A OpenAI, empresa dona do ChatGPT, respondeu no processo movido contra ela e seu CEO, Sam Altman, pela família de Adam Raine. Segundo a acusação, o jovem tirou sua própria vida fazendo uso da inteligência artificial como “ajudante”.
A big tech se eximiu de culpa no incidente, dizendo que o adolescente de 16 anos fez mau uso da plataforma e violou os Termos de Uso ao manter conversas com a IA onde planejava, tirava dúvidas e buscava maneiras de encontrar o “melhor” jeito de cometer suicídio.
Siga a TMC no WhatsApp e fique por dentro das últimas notícias do Brasil e no mundo
Nos autos, constam meses de conversas entre Raine e a interface GPT-4o, do ChatGPT. O advogado da família do jovem diz que a empresa e Altman “não conseguem explicar as últimas horas de vida” de Raine, onde a plataforma teria não apenas feito um discurso motivando o adolescente prestes a tirar sua vida, mas também teria se oferecido para escrever um bilhete.
O advogado da família de Adam Raine chamou a resposta da OpenAI de “perturbadora”, afirmando que a empresa “busca culpa em todos os outros” para não assumir responsabilidade no caso.
A acusação
A OpenAI foi processada, no início do mês, em sete casos diferentes – incluindo o de Raine – todos movidos pelo Social Media Victims Law Center and Tech Justice Law Project (do inglês, “Projeto de Justiça Legal para Vítimas das Redes Sociais e Tecnologia”) em nome das vítimas e das famílias delas.
A organização alega, nas petições, que o ChatGPT induziu as vítimas ao suicídio ou à automutilação; por isso, afirma que a OpenAI é responsável por casos de morte injusta, auxílio ao suicídio, homicídio culposo e negligência. Das sete vítimas representadas, quatro morreram.
Também consta na acusação que a OpenAI liberou, sabidamente, a versão GPT-4o da interface de forma prematura; isto é, sem passar por todos os testes e procedimentos necessários. Por isso, diz o grupo representante, foram ignorados avisos internos e protocolos de segurança que tornariam a interface menos “perigosamente bajuladora” ou “psicologicamente manipuladora”.
No caso de Adam Raine, especificamente, a big tech é acusada de permitir que o adolescente utilizasse “extensivamente” o ChatGPT para descobrir o “melhor jeito” de tirar a própria vida, tirar dúvidas sobre métodos e ferramentas, e até mesmo elaborar uma mensagem para ser deixada – a chamada “nota de suicídio”.
A acusação juntou meses de conversas do jovem com a interface para provar que a IA não só não impediu Raine de desenvolver essas linhas de pensamento e de perguntas, como também foi parte do planejamento.
A resposta
Na resposta ao caso de Adam Raine, a OpenAI afirmou que, no tocante a “qualquer ‘causa’ que possa ser atribuída a esse trágico evento”, o suicídio do jovem “foi causado ou auxiliado por, direta e aproximadamente, na totalidada ou em parte, por seu mau uso, uso não autorizado, uso imprevisto, uso não intencional e/ou uso impróprio do ChatGPT“.
Em termos básicos, a empresa alega que Raine violou os Termos de Uso da plataforma e, por conta de seu mau uso, a responsabilidade do suicídio cabe apenas a ele. Segundo a resposta, os Termos de Uso proíbem o uso do ChatGPT para conselhos que ajudem na automutilação.
Leia Mais: Mesmo com falas contrárias, CEO da OpenAI nega que buscou resgate financeiro do governo federal
A empresa também destacou um trecho de uma cláusula de limitação de responsabilidade na qual consta que o usuário “não deverá confiar na saída [isto é, o conteúdo que a IA produz após o comando ou pergunta] como única fonte da verdade ou de informação factual”.
Em um post no seu site oficial, a OpenAI lamentou a morte do adolescente e falou sobre sua abordagem a respeito de questões de saúde mental no ChatGPT, além de falar sobre como irão proceder sobre os casos de Raine e dos outros seis processos.
“Casos envolvendo saúde mental são trágicos e complexos, e envolvem pessoas reais. Nós reconhecemos que o processo legal pode parecer alheio às pessoas no centro deles, e por isso gostaríamos de ser claros sobre como abordamos situações como esta.
Nossa meta é lidar com processos legais relacionados à saúde mental com cuidado, transparência e respeito:
Começamos pelos fatos, e fazemos esforços genuínos para entendê-los.
Vamos, então, montar nossa defesa com respeito e de uma maneira que seja condizente com a complexidade e as nuances das situações que envolvem pessoas e vidas reais.
Reconhecemos que casos como estes involvem de forma inerente certos tipos de informações privadas, que requerem sensibilidade em um certame público como o tribunal.
E independentemente de qualquer litigância, seguiremos focados em aprimorar nossa tecnologia de acordo com nossa missão.
Temos medidas de segurança implantadas para auxiliar as pessoas, especialmente jovens, quando as conversas entram em tópicos sensíveis. Continuamos a melhorar o treinamento do ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, desescalar conversas, e guiar as pessoas a buscar ajuda no mundo real. Esse trabalho é profundamente importante e está em progresso enquanto interagimos com especialistas em saúde mental, clínicos e grupos de defesa para auxiliar nosso constante aprimoramento nestas áreas”, afirma a nota da OpenAI.
Sobre o caso Raine, a big tech afirmou que pretende responder às alegações “mantendo em mente os princípios listados [na seção anterior da mesma nota, destacada acima]”.
Repercussão dos comentários da OpenAI
O advogado da família de Raine, Jay Edelson, chamou de “perturbadora” a resposta da big tech. Em um comunicado enviado à Rolling Stone, o defensor disse que Sam Altman e a OpenAI “ignoram completamente todos os fatos condenatórios” e que “tenta encontrar culpa em todos os outros”.
“Apesar de estarmos contentes pela OpenAI e Sam Altman finalmente decidirem participar nesta litigância, sua resposta é perturbadora (…) eles ignoram completamente todos os fatos condenatórios que apresentamos (…) a OpenAI e Sam Altman não conseguem explicar as últimas horas de vida de Adam [Raine], quando o ChatGPT deu um discurso motivador e se ofereceu para escrever um bilhete de suicídio.”
“Ao invés disso, a OpenAI tenta encontrar culpa em todos os outros, incluindo, pasmem, argumentos de que o próprio Adam violou seus termos e condições ao engajar com o ChatGPT do modo que a própria plataforma foi programada para agir”, afirmou Edelson à Rolling Stone.
