
Caso ChatGPT: OpenAI nega ter dado ‘manual’ para suicídio (imagem ilustrativa/PM)
A OpenAI negou as alegações de que o ChatGPT foi responsável pelo suicídio de um estudante, de 16 anos, na Califórnia, nos EUA, segundo relatos da mídia norte-americana.
Em agosto, os pais do adolescente processaram a OpenAI e seu CEO, Sam Altman, alegando que o ChatGPT forneceu ao filho um “manual passo a passo” para o suicídio e se ofereceu para redigir a nota de suicídio.
Defesa da empresa em documento judicial
Em um documento judicial na terça-feira (25), a startup de inteligência artificial defendeu-se da ação que acusava o ChatGPT de “instruir” o adolescente a tirar a própria vida.
Artigos relacionados
A Bloomberg informou que, no documento, a OpenAI classificou a morte como “uma tragédia”, mas afirmou que uma “leitura completa do histórico de bate-papo mostra que a morte, embora devastadora, não foi causada pelo ChatGPT”.
Histórico de interações e alertas
A OpenAI destacou que o adolescente disse ao chatbot que “por vários anos antes de usar o ChatGPT, ele já exibia múltiplos fatores de risco para automutilação, incluindo pensamentos suicidas recorrentes”.
A empresa também afirmou que o ChatGPT direcionou o adolescente mais de 100 vezes a buscar ajuda de “recursos de crise e indivíduos de confiança”.
Outras famílias enlutadas apresentaram ações judiciais semelhantes nos Estados Unidos, argumentando que interações com chatbots de IA podem ter levado ao suicídio de seus filhos.
Fonte: NHK







