Líderes da indústria da IA alertam para ‘risco de extinção da humanidade’

Segundo declaração do Center for AI Safety, atenuar o risco de extinção pela IA deveria ser uma prioridade principal junto com outros riscos de escala social, como pandemias e guerra nuclear.

Perigo máximo de inteligência artificial não verificada (ilustrativa/banco de imagens)

Dezenas de líderes da indústria de inteligência artificial (IA), acadêmicos e até mesmo algumas celebridades, pediram na terça-feira (30) pela redução do risco de aniquilação global devido à IA.

Publicidade

Em uma breve declaração, eles argumentaram que a ameaça de extinção pela IA deveria ser uma prioridade principal global.

“Atenuar o risco de extinção pela IA deveria ser uma prioridade principal junto com outros riscos de escala social, como pandemias e guerra nuclear”, segundo a declaração publicada pelo Center for AI Safety.

A declaração foi assinada por autoridades líderes na indústria incluindo o CEO da OpenAI, Sam Altman; o chamado “padrinho” da IA, Geoffrey Hinton; altos executivos e pesquisadores da Google DeepsMind and Anthropic; Kevin Scott, o chefe de tecnologia da Microsoft; Bruce Schneier, o pioneiro de segurança na internet e criptografia; o defensor do clima Bill McKibben e o músico Grimes, dentre outros.

O documento destaca amplas preocupações sobre o perigo máximo de inteligência artificial não verificada.

Especialistas em IA dizem que a sociedade ainda está a um longo caminho de desenvolver o tipo de inteligência artificial geral que é o conteúdo de uma ficção científica.

Os chatbots de ponta de hoje em dia reproduzem amplamente padrões baseados em dados de treinamento com os quais eles foram alimentados e não pensam por eles mesmos.

Mesmo assim, a inundação de propaganda e investimento na indústria de IA levou a pedidos pela regulamentação no princípio da era IA, antes que quaisquer contratempos ocorram.

A declaração segue o sucesso viral do ChatGPT da OpenAI, que ajudou a aumentar uma corrida na indústria da tecnologia em relação à inteligência artificial.

Em resposta, um crescente número de legisladores, grupos de defesa e pessoas bem informadas sobre tecnologia alertaram sobre o potencial para um novo grupo de chatbots alimentados por IA espalharem desinformação e eliminar empregos.

Hinton, cujo trabalho pioneiro ajudou a modelar os sistemas de IA de hoje, disse anteriormente ao CNN que ele decidiu deixar seu cargo na Google e “denunciar” sobre a tecnologia após “perceber repentinamente que essas coisas estão ficando mais inteligente que nós”.

Fonte: CNN

+ lidas agora

> >

Vamos Comentar?

--

Coreia do Norte admite falha no lançamento do ‘satélite espião’

Publicado em 31 de maio de 2023, em Sociedade

A mídia norte-coreana informou que embora tenha falhado, irá tentar de novo.

‘Foguete’ da Coreia do Norte (reprodução da KCNA)

De acordo com as informações da Agência Central de Notícias da Coreia (KCNA), o satélite de reconhecimento militar Malligyong-1, montado em um novo tipo de foguete chamado Chollima-1, foi lançado às 6h27 de quarta-feira (31), de sua estação de lançamento na costa oeste.

Publicidade

Esse “foguete” carregando um satélite espião militar caiu no Mar Amarelo devido a um problema no motor. A Coreia do Norte admitiu a falha e informou que planeja realizar o segundo lançamento.

A agência de notícias sul-coreana Yonhap informou que uma fonte militar do país disse que o “projétil espacial” não atingiu o ponto de lançamento previsto e desapareceu do radar.  

Embora o governo e a mídia japonesa insistam em chamá-lo de míssil, o lado sul-coreano o chama de satélite espião militar.

Fontes: Yomiuri, KCNA, Yonhap e NHK

.
Passagens Aereas para o Brasil
Casa Própria no Japão
Empregos no Japão - Konishi Sangyo
Fujiarte - Empregos no Japão
FUJIARTE - Empregos no Japão
Empregos no Japão
Kumon - Aprenda japonês e tenha mais oportunidades!
Apartamentos para alugar no Japão
Apartamentos para alugar no Japão