Regulação de IA no Brasil deixa de lado ponto estratégico para os EUA

Joe Biden, em pronunciamento no Salão Oval da Casa Branca, nesta quinta-feira (19)

Joe Biden, em pronunciamento no Salão Oval da Casa Branca, nesta quinta-feira (19) Imagem: JONATHAN ERNST/REUTERS

Os riscos da IA (inteligência artificial) são os principais argumentos de quem defende uma regulação da tecnologia.. Só que no Brasil, estamos deixando escapar um tema importante relacionado a segurança, vieses e consequências destas novas plataformas.

No ano passado, a Casa Branca apoiou uma competição durante a convenção hacker DefCon para testar os limites dos principais modelos de IA. Imagine você reunir milhares de programadores e especialistas em computação para encontrar vulnerabilidades, falhas e riscos sistêmicos nas principais ferramentas do gênero?

Foi isso que rolou em agosto de 2023, em Las Vegas. Os participantes puderam colocar à prova os principais modelos de IA da OpenAI, Meta, Google e Anthopic para encontrar riscos em diferentes escalas, desde falhas de segurança, problemas de vieses e riscos que aparecem com o uso cotidiano por pessoas comuns, como respostas erradas convincentes produzidas pela máquina.

    Vice de Kamala ajuda mais do que o de Trump

    Kennedy Alencar

    Vice de Kamala ajuda mais do que o de Trump

  • União é porque elas sabem que nada está ganho

    Milly Lacombe

    União é porque elas sabem que nada está ganho

  • Ata do Copom realinha expectativas do mercado

    José Paulo Kupfer

    Ata do Copom realinha expectativas do mercado

  • Pioneiras celebram ouro de atletas negras

    André Santana

    Pioneiras celebram ouro de atletas negras

Essa é uma abordagem chamada 'Red Team', que vem da área de cibersegurança e começa a ser utilizada em projetos de IA. Um time de profissionais especializados é escalado para adotar um papel de 'adversário' do sistema e explora tudo o que pode dar errado com ele, como falhas, brechas e possíveis usos indevidos.

O relatório publicado nesta semana pelos organizadores do 'Red Team' que rolou durante a DefCon no ano passado mostra a importância da estratégia para trazer testes em larga escala para sistemas sensíveis como os de IA. Mais de 2.000 pessoas participaram do desafio e encontraram problemas em diferentes categorias que certamente não seriam identificados apenas pelos engenheiros e cientistas das empresas desenvolvedoras.

É por isso que as principais empresas de tecnologia estão investindo na formação de equipes de 'Red Team' para testar e validar os novos modelos de IA antes de serem disponibilizados ao público. A OpenAI, por exemplo, criou o "Red Teaming Network", que envolve especialistas de diferentes áreas e países para encontrar erros, falhas e desvios de comportamentos da IA antes que os novos modelos sejam liberados.

A prática está ganhando tanta importância como um requisito de segurança que a "Ordem Executiva" de IA do presidente Biden pede que os resultados dos testes feitos pelos 'Red Teams' das empresas sejam compartilhados com o governo federal.

"as empresas que desenvolvem qualquer modelo fundacional que represente um risco sério à segurança nacional, à segurança econômica nacional ou à saúde pública nacional e segurança devem notificar o governo federal ao treinar o modelo e devem compartilhar os resultados de todos os testes de segurança do 'Red Team'. Essas medidas garantirão que os sistemas de IA sejam seguros, protegidos e confiáveis antes que as empresas os tornem públicos."

Esse é um ponto que estamos deixando passar quando discutimos sobre regulação de IA no Brasil - e em muitos outros países. A prática de 'Red Team' não precisa estar restrita às empresas e pode ser um instrumento adequado quando estamos falando de políticas públicas para tecnologias emergentes.

Continua após a publicidade

De maneira prática, precisamos incorporar nas propostas de regulação a ideia de 'Red Team públicos' como mecanismo que nos ajuda a criar um corpo independente e interdisciplinar de pessoas para testar as capacidades, vulnerabilidades e riscos dos modelos de IA a partir da nossa perspectiva linguística e cultural.

A prática de 'Red Team' pode coexistir e ser instrumentos de outras propostas já existentes, como Avaliação de Impacto, mas atua em diferentes níveis e traz uma participação maior da sociedade. É o caminho mais fácil para gerar evidências empíricas sobre os resultados e comportamentos das tecnologias de IA (desenvolvidas no Brasil e no exterior) para que possamos identificar riscos e demandar melhorias de acordo com a realidade brasileira.

Opinião

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

** Este texto não reflete, necessariamente, a opinião do.

O que você está lendo é [Regulação de IA no Brasil deixa de lado ponto estratégico para os EUA].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...