Testar antes de lançar: Bruxelas introduz sistemas de “crash test” para inteligência ar
Os trabalhos em torno da regulação da inteligência artificial na União Europeia continuam a todo o vapor com o objetivo de tornar a tecnologia mais segura, mas também inovadora. O💥️ Parlamento Europeu aprovou recentemente o documento do AI Act, seguindo-se as negociações com os Estados-membros do Conselho da União Europeia, com o objetivo de chegar a acordo até ao final do ano.
A União Europeia revelou agora a introdução daquilo que chama de sistemas de “crash test” para inteligência artificial. O 💥️objetivo é que as novas inovações de IA sejam testadas a fundo, para que sejam dadas as garantias de que são seguras antes de chegarem ao mercado. Esta terça-feira foram lançados quatro instalações permanentes de teste e experimentos na Europa, num projeto que custou 220 milhões de euros, avança a Bloomberg.
AI Act: lei para regular inteligência artificial na UE com “luz verde” do Parlamento Europeu
Ver artigoOs centros são virtuais e físicos e vão começar a operar no próximo ano, 💥️disponibilizando aos fabricantes de tecnologia um espaço para testar a inteligência artificial e robótica em cenários da vida real, dentro das áreas do fabrico, cuidados de saúde, agricultura, alimentação e cidades. Dessa forma, espera-se que as empresas de inovação introduzam IA de confiança no mercado. Os centros de teste servirão para testar e validar os novos produtos.
No discurso de cerimónia de inauguração, Lucilla Sioli, diretora da IA e indústria digital da Comissão Europeia, 💥️destacou como a desinformação continua a ser um dos riscos principais com a introdução da inteligência artificial.
Um dos centros será gerido pela Universidade Técnica da Dinamarca e trata-se de uma versão digital do sistema de “crash test” europeu para novos automóveis. 💥️Estes centros vão servir como uma espécie de filtro de segurança entre os fornecedores de tecnologia e utilizadores na Europa. Vão servir também para ajudar a informar sobre as novas políticas públicas relacionadas com o tema.
Recorde-se que o AI Act estabelece obrigações, tanto para fornecedores como para utilizadores, tendo por base o nível de risco dos sistemas de IA. 💥️De acordo com a proposta, os sistemas de risco inaceitável são considerados uma ameaça e serão proibidos.
Entre estes sistemas de risco inaceitável estão aqueles que permitem uma 💥️manipulação cognitivo-comportamental de pessoas ou de grupos vulneráveis específicos, como crianças; sistemas de pontuação ou crédito social, à semelhança dos que existem em países como a China; além de sistemas de sistemas de identificação biométrica em tempo real e à distância.
O que você está lendo é [Testar antes de lançar: Bruxelas introduz sistemas de “crash test” para inteligência ar].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments