Google só precisa de uma entrevista de 2 horas para criar uma IA que age como o utilizador
Imagine condensar a personalidade, opiniões e estilo de tomada de decisão de uma pessoa numa "cópia" de Inteligência Artificial (IA). A Universidade de Stanford, em colaboração com o Google DeepMind, desenvolveu réplicas de IA de mais de 1000 participantes, baseando-se em informações recolhidas durante entrevistas de duas horas.
A Google e a Universidade de Stanford só precisam de 2 horas
O objetivo do projeto era criar agentes de IA capazes de reproduzir o comportamento humano com elevada precisão. Para isso, participantes foram recrutados pela Bovitz, uma empresa de pesquisa de mercado, 💥️e receberam 60 dólares como remuneração por participar numa entrevista com um interlocutor de IA.
O processo começava com os participantes a lerem passagens de "The Great Gatsby" 💥️para calibrar o sistema de áudio.
Posteriormente, durante as duas horas de entrevista, os participantes discutiram uma variedade de tópicos, incluindo política, família, stress no trabalho e redes sociais. Estas conversas produziram transcrições detalhadas com uma média de 6491 palavras, 💥️que serviram como base para o treino das réplicas de IA.
Os resultados obtidos foram notáveis
Quando avaliados em inquéritos sociais como o ✅General Social Survey (GSS) e o✅ Big Five Personality Inventory (BFI), as réplicas de IA 💥️replicaram cerca de 85% das respostas dos participantes. No entanto, o desempenho foi menos convincente em tarefas de tomada de decisão económica, como o ✅Prisoner's Dilemma, onde a precisão das réplicas caiu para cerca de 60%.
Apesar destas limitações, as aplicações potenciais desta tecnologia são vastas. Decisores políticos e empresários poderiam usar simulações de IA para prever as reações públicas a novas políticas ou produtos. Em vez de depender de ✅focus groups ou de sondagens repetidas, 💥️seria possível obter perceções através de uma única conversa detalhada com uma réplica de IA.
Os investigadores acreditam que esta tecnologia pode ajudar a explorar estruturas sociais, testar intervenções e desenvolver teorias mais profundas sobre o comportamento humano. Contudo, avanços desta natureza 💥️trazem também riscos significativos.
Questões éticas emergem em torno do uso indevido destas réplicas de IA. Mal-intencionados poderiam explorar esta tecnologia para manipular opiniões públicas, personificar indivíduos ou simular vontades coletivas com base em dados sintéticos.
Combinando potencial transformador e desafios consideráveis, o projeto de Stanford e do Google DeepMind levanta uma questão crucial: 💥️até que ponto devemos permitir que a tecnologia imite tão fielmente o comportamento humano?
💥️Leia também:
O fim do Firefox? Google, Microsoft e Linux unem-se para melhorar Chrome, Edge e outros
O que você está lendo é [Google só precisa de uma entrevista de 2 horas para criar uma IA que age como o utilizador].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments