HomeTiltArticleRegulação de IA no Brasil deixa de lado ponto estratégico para os EUA07/08/202421 Joe Biden, em pronunciamento no Salão Oval da Casa Branca, nesta quinta-feira (19) Imagem: JONATHAN ERNST/REUTERSOs riscos da IA (inteligência artificial) são os principais argumentos de quem defende uma regulação da tecnologia.. Só que no Brasil, estamos deixando escapar um tema importante relacionado a segurança, vieses e consequências destas novas plataformas.No ano passado, a Casa Branca apoiou uma competição durante a convenção hacker DefCon para testar os limites dos principais modelos de IA. Imagine você reunir milhares de programadores e especialistas em computação para encontrar vulnerabilidades, falhas e riscos sistêmicos nas principais ferramentas do gênero?Foi isso que rolou em agosto de 2023, em Las Vegas. Os participantes puderam colocar à prova os principais modelos de IA da OpenAI, Meta, Google e Anthopic para encontrar riscos em diferentes escalas, desde falhas de segurança, problemas de vieses e riscos que aparecem com o uso cotidiano por pessoas comuns, como respostas erradas convincentes produzidas pela máquina.Kennedy AlencarVice de Kamala ajuda mais do que o de TrumpMilly LacombeUnião é porque elas sabem que nada está ganhoJosé Paulo KupferAta do Copom realinha expectativas do mercadoAndré SantanaPioneiras celebram ouro de atletas negrasEssa é uma abordagem chamada 'Red Team', que vem da área de cibersegurança e começa a ser utilizada em projetos de IA. Um time de profissionais especializados é escalado para adotar um papel de 'adversário' do sistema e explora tudo o que pode dar errado com ele, como falhas, brechas e possíveis usos indevidos.O relatório publicado nesta semana pelos organizadores do 'Red Team' que rolou durante a DefCon no ano passado mostra a importância da estratégia para trazer testes em larga escala para sistemas sensíveis como os de IA. Mais de 2.000 pessoas participaram do desafio e encontraram problemas em diferentes categorias que certamente não seriam identificados apenas pelos engenheiros e cientistas das empresas desenvolvedoras.É por isso que as principais empresas de tecnologia estão investindo na formação de equipes de 'Red Team' para testar e validar os novos modelos de IA antes de serem disponibilizados ao público. A OpenAI, por exemplo, criou o "Red Teaming Network", que envolve especialistas de diferentes áreas e países para encontrar erros, falhas e desvios de comportamentos da IA antes que os novos modelos sejam liberados.A prática está ganhando tanta importância como um requisito de segurança que a "Ordem Executiva" de IA do presidente Biden pede que os resultados dos testes feitos pelos 'Red Teams' das empresas sejam compartilhados com o governo federal."as empresas que desenvolvem qualquer modelo fundacional que represente um risco sério à segurança nacional, à segurança econômica nacional ou à saúde pública nacional e segurança devem notificar o governo federal ao treinar o modelo e devem compartilhar os resultados de todos os testes de segurança do 'Red Team'. Essas medidas garantirão que os sistemas de IA sejam seguros, protegidos e confiáveis antes que as empresas os tornem públicos."Esse é um ponto que estamos deixando passar quando discutimos sobre regulação de IA no Brasil - e em muitos outros países. A prática de 'Red Team' não precisa estar restrita às empresas e pode ser um instrumento adequado quando estamos falando de políticas públicas para tecnologias emergentes.Continua após a publicidadeDe maneira prática, precisamos incorporar nas propostas de regulação a ideia de 'Red Team públicos' como mecanismo que nos ajuda a criar um corpo independente e interdisciplinar de pessoas para testar as capacidades, vulnerabilidades e riscos dos modelos de IA a partir da nossa perspectiva linguística e cultural.A prática de 'Red Team' pode coexistir e ser instrumentos de outras propostas já existentes, como Avaliação de Impacto, mas atua em diferentes níveis e traz uma participação maior da sociedade. É o caminho mais fácil para gerar evidências empíricas sobre os resultados e comportamentos das tecnologias de IA (desenvolvidas no Brasil e no exterior) para que possamos identificar riscos e demandar melhorias de acordo com a realidade brasileira.OpiniãoTexto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.** Este texto não reflete, necessariamente, a opinião do.O que você está lendo é [Regulação de IA no Brasil deixa de lado ponto estratégico para os EUA].Se você quiser saber mais detalhes, leia outros artigos deste site.Links
Saída de talento não é massiva na investigação mas quem sai evidencia dif
MEO Empresas desafia empresas e startups a criar aplicações diferenciadores para o 5G - Telecomunica&c
Wonderful comments