Fujiarte - Empregos no Japão - Trabalhe com segurança
Portal Mie PORTAL MIE
Aichi 18°C 5°C
🇺🇸USD→🇯🇵JPY 159.414
Mundo

Controles parentais no ChatGPT após morte de adolescente

A OpenAI implementará controles parentais no ChatGPT após um casal americano alegar que o sistema incentivou seu filho a se suicidar.

NP

Notícias Portal Mie

⏱ 2min de leitura
Passagens aéreas no Japão - Alfainter
Ouça agora · Áudio da notícia
Playlist →
00:00
--:--
Pais processam OpenAI, que lança controles para adolescentes no ChatGPT
Pais processam OpenAI, que lança controles para adolescentes no ChatGPT (imagem ilustrativa/PM)

A OpenAI, empresa de inteligência artificial dos Estados Unidos, anunciou na terça-feira (2) que introduzirá controles parentais em seu chatbot ChatGPT.

UT SURI-EMU - Empregos seguros no Japão
Publicidade

A decisão veio apenas uma semana após um casal americano alegar que o sistema incentivou seu filho adolescente a cometer suicídio.

“Dentro do próximo mês, os pais poderão… vincular sua conta à conta de seus filhos“, explicou a OpenAI em um post no blog. “Eles poderão controlar como o ChatGPT responde ao seu filho com regras de comportamento adequadas à idade”, informou a empresa de inteligência artificial generativa.

Os pais também receberão notificações do ChatGPT “quando o sistema detectar que o adolescente está em um momento de aflição aguda”, acrescentou a OpenAI.

A empresa já havia sinalizado um sistema de controles parentais em um post no final de agosto

Isso ocorreu um dia após uma ação judicial de pais da Califórnia, Matthew e Maria Raine, que alegaram que o ChatGPT forneceu ao seu filho de 16 anos instruções detalhadas de suicídio e o encorajou a seguir seus planos.

Recomendadas para você

O caso dos Raine é apenas o mais recente em uma série de relatos surgidos nos últimos meses de pessoas sendo incentivadas a pensamentos delirantes ou prejudiciais por chatbots de IA.

A empresa informou que tem planos adicionais para melhorar a segurança de seus chatbots nos próximos três meses, incluindo o redirecionamento de algumas conversas sensíveis para um “modelo de raciocínio” que utiliza mais capacidade computacional para gerar uma resposta.

“Nossos testes mostram que modelos de raciocínio seguem e aplicam as diretrizes de segurança de forma mais consistente”, afirmou a OpenAI.

Fonte: CNA

+ lidas agora

em alta
Seguidores
10.386

Curta o Portal Mie no Facebook

Receba novidades e destaques direto no seu feed.