Nova carta aberta pede medidas contra ameaças existenciais como (pode vir a ser) a Inteligência Artificial
“O nosso 💥️mundo está em grande perigo. Enfrentamos um conjunto de ameaças que põem toda a humanidade em risco. Os nossos líderes não estão a responder com a sabedoria e urgência necessárias”. Esta é uma das passagens de uma 💥️nova carta aberta, assinada por várias personalidades mediáticas, que pedem aos líderes do mundo visão e estratégias de longo prazo para endereçar questões que podem conduzir a ameaças existenciais. 💥️Nesta lista de perigos iminentes colocam-se a inteligência artificial sem regras, a crise climática, as pandemias ou as armas nucleares.
Muitos dos💥️ nomes que assinam esta nova carta aberta, dirigida aos líderes do mundo e focada em perigos que podem converter-se em ameaças para a existência humana, defende-se, são conhecidos. O multimilionário💥️ Richard Branson, o antigo secretário-geral das Nações Unidas 💥️Ban Ki-moon, o neto do físico americano J. Robert Oppenheimer, 💥️Charles Oppenheimer, o ex-Primeiro Ministro britânico 💥️Gordon Brown e vários outros antigos chefes de governos estão na lista de signatários.
Dizem os signatários que os líderes mundiais precisam de ter “determinação para resolver problemas difíceis, não apenas para geri-los, sabedoria para tomar decisões baseadas em evidências científicas e na razão e a humildade de ouvir todos os que são afetados” por estas questões.
Sublinham que o impacto destes riscos já se fazem sentir e dão como exemplos as💥️ rápidas alterações no clima, os efeitos de uma 💥️pandemia que matou milhões e custou biliões, ou a 💥️proliferação das armas nucleares e acreditam que o pior ainda pode estar para vir, se nada de diferente for feito.
E o que pode ser feito? Pedem-se💥️ decisões e ações multilaterais que resultem da combinação de esforços de diversos atores. Por exemplo, ações concertadas para financiar a transição dos combustíveis fósseis ou para 💥️definir um quadro global que oriente a inteligência artificial para o bem.
💥️Veja o vídeo
A 💥️carta foi lançada por uma organização não governamental fundada por Nelson Mandela para promover os direitos humanos e a paz mundial, a 💥️The Elders, em colaboração com a💥️ Future of Life Institute, que já tinha apoiado outra carta aberta lançada no ano passado, que alertava para os riscos existenciais do desenvolvimento sem controlo da inteligência artificial. Esta 💥️primeira carta reuniu também várias figuras públicas, como Elon Musk, fundador da Tesla e da SpaceX e dono da rede social X, ou Steve Wozniak.
Max Tegmark, do MIT, é um dos fundadores do Future of Life Institute e vai levar o texto à conferência de segurança de Munique, que decorre por estes dias. Numa entrevista à CNBC sobre esta nova carta lembrou que 💥️as novas tecnologias podem trazer o melhor, mas esse potencial pode ser posto em causa se o desenvolvimento andar mais rápido que a nossa capacidade de o compreender e moldar aos melhores interesses e fins.
“A velha estratégia para direcionarmos [novas evoluções tecnológicas] para bons usos, sempre foi a de aprender com os erros”, frisou o cosmólogo, dando alguns exemplos.
Inventámos o fogo e mais tarde os extintores. inventámos o carro e mais tarde os cintos de segurança e os limites de velocidade. “💥️Mas quando o poder da tecnologia ultrapassa um limiar, a estratégia de aprender com os erros pode tornar-se péssima”, defendeu.
O que você está lendo é [Nova carta aberta pede medidas contra ameaças existenciais como (pode vir a ser) a Inteligência Artificial ].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments