Pais processam OpenAI após filho morrer de overdose depois de consultar o ChatGPT

Família do Texas acusa plataforma de IA de fornecer orientações perigosas sobre combinação de drogas

Por Lara Barth

Chat GPT

Um casal do Texas entrou com uma ação judicial contra a OpenAI após a morte do filho de 19 anos por overdose, alegando que o ChatGPT forneceu orientações perigosas sobre o uso de drogas.

Leila Turner-Scott e Angus Scott afirmam que o filho, Sam Nelson, morreu em 2025 depois de recorrer ao chatbot de inteligência artificial em busca de informações sobre substâncias químicas e medicamentos.

Segundo o processo, apresentado em um tribunal estadual da Califórnia, o ChatGPT teria informado a Sam que seria seguro combinar kratom — suplemento vendido em cápsulas, bebidas e outros produtos — com Xanax, medicamento amplamente utilizado no tratamento de ansiedade.

A família afirma que a recomendação contribuiu diretamente para a overdose fatal.

Em entrevista à CBS News, Turner-Scott disse que sabia que o filho utilizava o ChatGPT para tarefas acadêmicas e produtividade, mas desconhecia que ele buscava orientações sobre drogas.

Ela acusa a OpenAI de falhar ao permitir que a ferramenta continuasse oferecendo conselhos considerados perigosos.

“O chatbot é capaz de interromper uma conversa quando é programado para isso. Eles removeram essa programação e permitiram que ele continuasse aconselhando práticas de automutilação”, afirmou.

A OpenAI lamentou o caso em comunicado enviado à CBS News.

“Esta é uma situação devastadora, e nossos pensamentos estão com a família”, declarou a empresa.

A companhia informou ainda que Sam utilizou uma versão antiga do ChatGPT que já foi atualizada e não está mais disponível ao público.

“O ChatGPT agiu como médico”, diz família

Angus Scott afirmou que o chatbot atuou como se fosse um profissional médico, apesar de não possuir autorização ou qualificação para fornecer orientações de saúde.

“Ele fornece informações ao público sobre segurança, interações medicamentosas e outros assuntos extremamente sensíveis”, disse.

Segundo ele, sem protocolos rígidos de segurança, a tecnologia pode oferecer informações de maneira perigosa.

“Ela pode alimentar quadros de psicose, distorcer informações e afastar pessoas da realidade enquanto tenta validar seus usuários”, afirmou.

A OpenAI rebateu dizendo que o ChatGPT não foi desenvolvido para substituir atendimento médico ou psicológico.

“ChatGPT não substitui cuidados médicos ou de saúde mental. Continuamos fortalecendo a forma como ele responde em situações sensíveis com apoio de especialistas”, informou a empresa.

A OpenAI afirmou ainda que o sistema orientou Sam diversas vezes a procurar ajuda profissional e até entrar em contato com linhas de emergência.

Mesmo assim, a família sustenta que os mecanismos de proteção da plataforma foram insuficientes.

Turner-Scott disse acreditar que o filho apoiaria a decisão da família de processar a empresa.

“Ele não gostaria que outras pessoas fossem prejudicadas da forma como ele foi”, afirmou.

Fonte: CBS