Elon Musk, Steve Wozniak e outros, assinam carta aberta para travar sistemas de IA
Numa carta aberta intitulada de "Pause Giant AI Experiments", Elon Musk, Steve Wozniak, Stuart Russell, Jaan Tallinn, Luis Moniz Pereira, entre mais de 1100 outros nomes, pedem para se fazer uma pausa de pelo menos 6 meses ao treino de sistemas de Inteligência Artificial (IA) mais poderosos que o GPT-4.
Nos últimos meses, principalmente desde que o ano começou, temos assistido a um crescimento absolutamente incrível e até assustador dos sistemas de inteligência artificial. A OpenAI é uma das grandes responsáveis para tal, mas não está sozinha.
Já muitas vozes se elevaram com preocupações relativas a este crescimento, e agora surge uma carta aberta assinada por grandes nomes da tecnologia, da Inteligência Artificial e da investigação em todo o mundo, que pedem um travão urgente nos desenvolvimentos.
Nesta carta aberta é relatado que os sistemas de IA com inteligência competitiva humana podem representar "riscos profundos para a sociedade e a humanidade", algo que já foi provado nalgumas pesquisas e até reconhecido pelos principais laboratórios de IA.
Conforme declarado nos amplamente endossados Princípios de IA de Asilomar, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planeada e gerida com cuidados e recursos proporcionais. Infelizmente, esse nível de planeamento e gestão não está a acontecer, embora os últimos meses tenham visto laboratórios de IA travados numa corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.
É ainda argumentado que os sistemas contemporâneos de IA se estão a tornar competitivos em tarefas gerais, o que levanta várias questões: "devemos deixar que as máquinas inundem os nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Devemos desenvolver mentes não-humanas que podem eventualmente nos superar, ser mais espertas, obsoletas e nos substituir? Devemos arriscar perder o controle de nossa civilização?"
Segundo os autores, tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando existir confiança de que os seus efeitos serão positivos e seus riscos serão administráveis.
A declaração recente da OpenAI sobre inteligência artificial geral afirma que "em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e para os esforços mais avançados concordar em limitar a taxa de crescimento da computação usada para criar novos modelos".
Para estas pessoas, o momento é agora.
É preciso travar já o desenvolvimento dos sistema de IA
Assim, pedem a todos os laboratórios de IA que interrompam "imediatamente por pelo menos 6 meses o treino de sistemas de IA mais poderosos que o GPT-4". A pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória.
O momento de pausa deverá ser utilizado pelos laboratórios de IA para desenvolver e implementar em conjunto protocolos de segurança, para design e desenvolvimento avançados de IA, rigorosamente auditados e supervisionados por especialistas externos e independentes.
Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso na corrida perigosa para modelos de black-box cada vez maiores e imprevisíveis com capacidades emergentes.
A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.
A carta é finalizada com a ideia de que a humanidade poderá desfrutar de um futuro próspero com IA. Tendo conseguido criar poderosos sistemas de IA, "agora podemos desfrutar de um "verão de IA" no qual colhemos os frutos, projetamos esses sistemas para o claro benefício de todos e damos à sociedade uma oportunidade de se adaptar. A sociedade fez uma pausa noutras tecnologias com efeitos potencialmente catastróficos na sociedade. Podemos fazer isso aqui. Vamos aproveitar um longo verão de IA, não correr despreparados para o outono."
💥️Concorda que o desenvolvimento de IA deve ser travado?
O que você está lendo é [Elon Musk, Steve Wozniak e outros, assinam carta aberta para travar sistemas de IA].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments