Quem é preso por causa de IA deve ser tão ouvido quanto big tech, diz ex-diretora do Google

Há diversos exemplos na história em que decisões sobre como conduzir uma tecnologia foram tomadas sem ouvir as pessoas afetadas por aquelas ferramentas, diz a pesquisadora Verity Harding, 39, autora do livro "AI Needs You" (a inteligência artificial precisa de você), lançado em março deste ano nos EUA.

Agora, em meio ao avanço da inteligência artificial, é preciso fazer diferente, defende. "Uma big tech deve ser ouvida sobre um projeto de lei sobre IA na mesma medida que quem perde o emprego ou é alvo de uma prisão injusta por um erro de sistemas de reconhecimento facial", afirma à 💥️Folha.

Harding fala da perspectiva de quem já esteve em governos e em big techs. Entre 2009 e 2013, ela foi a principal conselheira de tecnologia do político britânico Nick Clegg, vice-primeiro-ministro do Reino Unido entre 2010 e 2015 e hoje vice-presidente de políticas públicas da Meta, dona do Facebook. Além disso, Harding foi diretora de políticas públicas da Deepmind, o braço especializado em IAs avançadas do Google, entre 2016 e 2023.

A pesquisadora, que está no debate sobre como orientar o desenvolvimento de sistemas de inteligência artificial de forma segura desde os primórdios, afirma que dizer que o assunto é muito técnico é uma tentativa de interditar a discussão e que isso espantará o público em geral.

"Não é necessário ser um especialista em IA para ter uma opinião informada sobre a tecnologia", diz.

Harding, hoje, dirige um projeto sobre IA e geopolítica no Instituto Bennett para Políticas Públicas, vinculado à Universidade de Cambridge. Com a agenda lotada em meio ao avanço das discussões sobre a regulação da tecnologia pelo mundo, ela falou com a Folha por telefone durante uma corrida de táxi no intervalo entre dois eventos promovidos em Londres.

Na terça-feira (9) em que o Senado adiou mais uma vez a votação da proposta de regulação de inteligência artificial (PL 2338/2023), a pesquisadora evitou comentar o texto brasileiro, "por não saber de seus detalhes".

No entanto, ela afirma que considera a legislação europeia, que inspira a brasileira, um bom exemplo. "Pode não ser o modelo exato para todos os países, mas, ao menos, é clara e compreensível sobre certos limites."

"O Ato de IA da União Europeia divide a tecnologia em diferentes níveis de risco: se algo é de alto risco, há mais obrigações; se as coisas são de baixo risco, há menos. E há também regras acertadas para incentivar a inovação e a pesquisa", justifica.

"Precisamos aceitar que alguns dos lados mais obscuros da humanidade, como ganância, maldade e sede de poder, vão inevitavelmente definir o desenvolvimento e o uso de sistemas de inteligência artificial e impor certos limites."

Verity Harding

pesquisadora da Universidade de Cambridge

Em vez de estar preocupada com um cenário de destruição da humanidade por supercomputadores, Harding identifica problemas reais da IA: reconhecimento facial que não funciona com pessoas de pele mais escura, programas de tradução que não atendem a idiomas do chamado Sul Global e o uso de produções artísticas protegidas por direitos autorais para desenvolver modelos de IA.

Harding diz que é uma prioridade determinar quais grupos serão mais afetados pela inteligência artificial.

"Precisamos aceitar que alguns dos lados mais obscuros da humanidade, como ganância, maldade e sede de poder, vão inevitavelmente definir o desenvolvimento e o uso de sistemas de inteligência artificial, como já ocorreu com outras tecnologias, e impor certos limites."

Um guia do New York Times em formato de newsletter para você entender como funciona a IA

O exemplo maior dos efeitos danosos da falta de regulação no livro de Harding é a própra internet.

Ela lembra que o ex-presidenciável americano Al Gore defendia que uma internet sem regulação garantiria acesso igualitário ao conhecimento a escolas e bibliotecas esquecidas pelo poder público.

Em vez disso, os principais programas educacionais pensados para internet ficaram no abandono, e ganhou espaço a versão comercial da rede mantida por poucos negócios extremamente bem-sucedidos.

A decepção com a utopia da internet tem, para a pesquisadora, reflexos negativos sobre as formulações sobre inteligência artificial. "Em um mundo mais desconfiado, certamente essas dúvidas vão se infiltrar e influenciar a tecnologia, e, nesse caso, a IA."

A sociedade deve evitar a premissa equivocada de que a tecnologia é neutra, na avaliação de Harding. "As pessoas precisam estar cientes disso e de como a política influencia a inteligência artificial e, então, sentirem-se capacitadas para mudar isso."

O que você está lendo é [Quem é preso por causa de IA deve ser tão ouvido quanto big tech, diz ex-diretora do Google].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...