Pais processam OpenAI após filho morrer de overdose depois de consultar o ChatGPT
Família do Texas acusa plataforma de IA de fornecer orientações perigosas sobre combinação de drogas
Um casal do Texas entrou com uma ação judicial contra a OpenAI após a morte do filho de 19 anos por overdose, alegando que o ChatGPT forneceu orientações perigosas sobre o uso de drogas.
Leila Turner-Scott e Angus Scott afirmam que o filho, Sam Nelson, morreu em 2025 depois de recorrer ao chatbot de inteligência artificial em busca de informações sobre substâncias químicas e medicamentos.
Segundo o processo, apresentado em um tribunal estadual da Califórnia, o ChatGPT teria informado a Sam que seria seguro combinar kratom — suplemento vendido em cápsulas, bebidas e outros produtos — com Xanax, medicamento amplamente utilizado no tratamento de ansiedade.
A família afirma que a recomendação contribuiu diretamente para a overdose fatal.
Em entrevista à CBS News, Turner-Scott disse que sabia que o filho utilizava o ChatGPT para tarefas acadêmicas e produtividade, mas desconhecia que ele buscava orientações sobre drogas.
Ela acusa a OpenAI de falhar ao permitir que a ferramenta continuasse oferecendo conselhos considerados perigosos.
“O chatbot é capaz de interromper uma conversa quando é programado para isso. Eles removeram essa programação e permitiram que ele continuasse aconselhando práticas de automutilação”, afirmou.
A OpenAI lamentou o caso em comunicado enviado à CBS News.
“Esta é uma situação devastadora, e nossos pensamentos estão com a família”, declarou a empresa.
A companhia informou ainda que Sam utilizou uma versão antiga do ChatGPT que já foi atualizada e não está mais disponível ao público.
“O ChatGPT agiu como médico”, diz família
Angus Scott afirmou que o chatbot atuou como se fosse um profissional médico, apesar de não possuir autorização ou qualificação para fornecer orientações de saúde.
“Ele fornece informações ao público sobre segurança, interações medicamentosas e outros assuntos extremamente sensíveis”, disse.
Segundo ele, sem protocolos rígidos de segurança, a tecnologia pode oferecer informações de maneira perigosa.
“Ela pode alimentar quadros de psicose, distorcer informações e afastar pessoas da realidade enquanto tenta validar seus usuários”, afirmou.
A OpenAI rebateu dizendo que o ChatGPT não foi desenvolvido para substituir atendimento médico ou psicológico.
“ChatGPT não substitui cuidados médicos ou de saúde mental. Continuamos fortalecendo a forma como ele responde em situações sensíveis com apoio de especialistas”, informou a empresa.
A OpenAI afirmou ainda que o sistema orientou Sam diversas vezes a procurar ajuda profissional e até entrar em contato com linhas de emergência.
Mesmo assim, a família sustenta que os mecanismos de proteção da plataforma foram insuficientes.
Turner-Scott disse acreditar que o filho apoiaria a decisão da família de processar a empresa.
“Ele não gostaria que outras pessoas fossem prejudicadas da forma como ele foi”, afirmou.
Fonte: CBS