Google só precisa de uma entrevista de 2 horas para criar uma IA que age como o utilizador

Imagine condensar a personalidade, opiniões e estilo de tomada de decisão de uma pessoa numa "cópia" de Inteligência Artificial (IA). A Universidade de Stanford, em colaboração com o Google DeepMind, desenvolveu réplicas de IA de mais de 1000 participantes, baseando-se em informações recolhidas durante entrevistas de duas horas.

IA & humano

A Google e a Universidade de Stanford só precisam de 2 horas

O objetivo do projeto era criar agentes de IA capazes de reproduzir o comportamento humano com elevada precisão. Para isso, participantes foram recrutados pela Bovitz, uma empresa de pesquisa de mercado, 💥️e receberam 60 dólares como remuneração por participar numa entrevista com um interlocutor de IA.

O processo começava com os participantes a lerem passagens de "The Great Gatsby" 💥️para calibrar o sistema de áudio.

Posteriormente, durante as duas horas de entrevista, os participantes discutiram uma variedade de tópicos, incluindo política, família, stress no trabalho e redes sociais. Estas conversas produziram transcrições detalhadas com uma média de 6491 palavras, 💥️que serviram como base para o treino das réplicas de IA.

Inteligência Artificial entre estudantes e professores

Os resultados obtidos foram notáveis

Quando avaliados em inquéritos sociais como o ✅General Social Survey (GSS) e o✅ Big Five Personality Inventory (BFI), as réplicas de IA 💥️replicaram cerca de 85% das respostas dos participantes. No entanto, o desempenho foi menos convincente em tarefas de tomada de decisão económica, como o ✅Prisoner's Dilemma, onde a precisão das réplicas caiu para cerca de 60%.

Apesar destas limitações, as aplicações potenciais desta tecnologia são vastas. Decisores políticos e empresários poderiam usar simulações de IA para prever as reações públicas a novas políticas ou produtos. Em vez de depender de ✅focus groups ou de sondagens repetidas, 💥️seria possível obter perceções através de uma única conversa detalhada com uma réplica de IA.

Os investigadores acreditam que esta tecnologia pode ajudar a explorar estruturas sociais, testar intervenções e desenvolver teorias mais profundas sobre o comportamento humano. Contudo, avanços desta natureza 💥️trazem também riscos significativos.

Questões éticas emergem em torno do uso indevido destas réplicas de IA. Mal-intencionados poderiam explorar esta tecnologia para manipular opiniões públicas, personificar indivíduos ou simular vontades coletivas com base em dados sintéticos.

Combinando potencial transformador e desafios consideráveis, o projeto de Stanford e do Google DeepMind levanta uma questão crucial: 💥️até que ponto devemos permitir que a tecnologia imite tão fielmente o comportamento humano?

💥️Leia também:

O fim do Firefox? Google, Microsoft e Linux unem-se para melhorar Chrome, Edge e outros

O que você está lendo é [Google só precisa de uma entrevista de 2 horas para criar uma IA que age como o utilizador].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...