Mais de mil especialistas dizem que ferramentas de IA são grave ameaça e devem parar por 6 meses

Mais de mil pesquisadores, especialistas e executivos do setor de tecnologia, entre os quais o bilionário Elon Musk, publicaram nesta quarta-feira uma carta aberta conclamando empresas do mundo inteiro a realizarem uma pausa de seis meses no desenvolvimento de novas ferramentas de inteligência artificial (IA), como o já popular ChatGPT, diante do que chamaram de…

Mais de mil pesquisadores, especialistas e executivos do setor de tecnologia, entre os quais o bilionário Elon Musk, publicaram nesta quarta-feira uma carta aberta conclamando empresas do mundo inteiro a realizarem uma pausa de seis meses no desenvolvimento de novas ferramentas de inteligência artificial (IA), como o já popular ChatGPT, diante do que chamaram de “perigosa” corrida armamentista.

A carta foi divulgada pelo Future of Life Institute, um grupo sem fins lucrativos, e ganhou a adesão de centenas de acadêmicos e executivos do setor em poucas horas desde que foi tornada pública.

“Nos últimos meses, vimos os laboratórios de Inteligência Artificial em uma corrida fora do controle para desenvolver e aprimorar mentes digitais que ninguém – nem seus próprios criadores – consegue entender, prever ou controlar de forma confiável”, diz a carta, que menciona riscos à sociedade e à humanidade.

Entre os signatários da carta estão os mais conceituados pesquisadores sobre inteligência artificial, como os professores Stuart Russel, da Universidade de Montreal, e Youshua Bengio, de Berkeley, além de pensadores como o escritor Yuval Noah Harari.

Steve Wozniak, cofundador da Apple, também assina o documento, além de outros executivos do setor, como os fundadores de startups de IA como Stability AI e Charcacter.ai.

Eles pedem uma pausa no desenvolvimento dessa nova tecnologia até que protocolos de segurança sejam desenvolvidos, implementados, compartilhados e auditados por especialistas independentes. E, caso os laboratórios de IA não consigam fazer essa suspensão nas pesquisas, eles conclamam os governos a agirem e instituírem uma moratória:

“Pedimos a todos os laboratórios de IA que pausem imediatamente, por pelo menos seis meses, os treinamentos de sistemas de IA mais poderosos do que o GPT-4 (a versão mais atual do Chat-GPT). Esta pausa precisa ser pública e verificável, e incluir todos os atores relevantes. Se esta pausa não puder ser colocada em prática rapidamente, os governos devem tomar medidas e estabelecerem uma moratória (nas pesquisas)”, diz a carta.

Os protocolos de segurança a serem criados, dizem os signatários da carta, não apenas precisam ter auditoria independente como devem “garantir que os sistemas serão seguros acima de qualquer dúvida razoável”.

Mais recentes

Descubra mais sobre Agenda do Poder

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading