Grupo da UE quer impedir que a Meta utilize dados pessoais para treinar modelos de IA

Num mundo verdadeiramente digital, a proteção e privacidade dos dados são temas recorrentes. Agora, um grupo europeu dedicado à defesa dos direitos digitais quer impedir a Meta de utilizar dados pessoais dos utilizadores para treinar modelos de Inteigência Artificial (IA).

Treinar modelos de IA

As empresas estão, de forma crescente, a recorrer à IA para potencializarem os seus sistemas. Para que estes sejam exímios, são necessárias grandes quantidades de dados, capazes de os preparar para o mundo real, em contacto com a (im)previsibilidade do ser humano. Recentemente, a Meta anunciou que, em breve, utilizará dados pessoais para treinar os seus modelos.

O grupo NOYB (none of your business) da Áustria 💥️instou os responsáveis nacionais da privacidade a agirem imediatamente, afirmando que as recentes alterações à política de privacidade da Meta, que entram em vigor a 26 de junho, 💥️permitiriam a utilização de anos de publicações pessoais, imagens privadas ou dados de localização online para treinar a sua tecnologia de IA.

Inteligência Artificial (IA)

De acordo com a informação dada pela Reuters, o grupo de defesa afirmou ter apresentado 11 queixas contra a Meta e pedido às autoridades de proteção de dados da Áustria, Bélgica, França, Alemanha, Grécia, Itália, Irlanda, Países Baixos, Noruega, Polónia e Espanha que 💥️lançassem um procedimento de urgência devido às alterações iminentes.

A 💥️Meta rejeitou as críticas do NOYB e remeteu para uma publicação de 22 de maio, na qual afirmou que utiliza informações online e licenciadas publicamente disponíveis para treinar a IA, bem como informações que as pessoas partilharam publicamente sobre os seus produtos e serviços.

Numa mensagem enviada aos utilizadores do Facebook, a 💥️Meta afirma que pode processar informações sobre pessoas que não utilizam os seus produtos e serviços nem têm uma conta, caso apareçam numa imagem ou sejam mencionadas em publicações ou legendas partilhadas por um utilizador.

Estamos confiantes de que a nossa abordagem está em conformidade com as leis de privacidade e é consistente com a forma como outras empresas tecnológicas estão a desenvolver e a melhorar as suas experiências de IA na Europa (incluindo a Google e a Open AI).

Afirmou um porta-voz da Meta.

Meta

Grupo de defesa dos direitos digitais não desiste de tentar parar a Meta

A NOYB já apresentou várias queixas contra a Meta e outras grandes empresas de tecnologia por alegadas violações do Regulamento Geral de Proteção de Dados da União Europeia (RGPD), que ameaça multas até 4% do volume de negócios global total de uma empresa por violações.

A Meta já tinha referido anteriormente um interesse legítimo na utilização dos dados dos utilizadores para treinar e desenvolver os seus modelos de IA generativa e outras ferramentas de IA, que podem ser partilhadas com terceiros.

Chatbot, IA

"No entanto, a empresa está a tentar utilizar os mesmos argumentos para o treino de uma «tecnologia de IA» indefinida". Ora, "parece que a Meta está, mais uma vez, a ignorar descaradamente os acórdãos do Tribunal de Justiça da União Europeia (TJUE)", afirmou Max Schrems, fundador do NOYB, acrescentando que a opção de não participação é extremamente complicada.

Transferir a responsabilidade para o utilizador é completamente absurdo. A lei exige que a Meta obtenha o consentimento do utilizador, e não que forneça um formulário de auto-exclusão oculto e enganador.

Se a Meta quiser utilizar os seus dados, o utilizador pode optar por não os utilizar. Se a Meta quer utilizar os seus dados, tem de pedir a sua autorização. Em vez disso, obrigaram os utilizadores a implorar para serem excluídos.

Numa decisão tomada em 2023 sobre este tema, o TJUE "deixou claro que a Meta não tem «interesse legítimo» para se sobrepor ao direito dos utilizadores à proteção de dados quando se trata de publicidade", disse Schrems.

O que você está lendo é [Grupo da UE quer impedir que a Meta utilize dados pessoais para treinar modelos de IA].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...