OpenAI alerta os utilizadores! Não se apaixonem pelo ChatGPT
A OpenAI continua a melhorar a sua IA a cada nova versão apresentada. O ChatGPT-4o é a mais recente iteração da linha de chatbots da empresa e, como seria de esperar, esta está preocupada com a forma como os utilizadores interagem com ele.
A OpenAI alerta os utilizadores da IA
Dado que a versão mais recente pode exibir comportamentos e respostas semelhantes às humanas, a empresa de IA teme que os utilizadores desenvolvam sentimentos pelo chatbot.
Embora a startup de mil milhões de dólares continue a refinar o seu produto, não pode deixar de notar alguns padrões dos utilizadores do ChatGPT-4o. O lançamento do novo chatbot teve como objetivo proporcionar uma experiência semelhante à de falar com um ser humano. Aparentemente, a OpenAI subestimou a ligação emocional que pode ser criada entre os utilizadores e o programa.
Durante os primeiros testes, incluindo red teaming e testes de utilizadores internos, observámos os utilizadores a utilizar uma linguagem que pode indicar a formação de ligações com o modelo. Por exemplo, isto inclui linguagem que expressa laços partilhados, como “Este é o nosso último dia juntos”.
Embora estes casos pareçam benignos, sinalizam a necessidade de uma investigação contínua sobre a forma como estes efeitos se podem manifestar durante longos períodos de tempo. Populações de utilizadores mais diversificadas, com necessidades e desejos mais variados do modelo, bem como estudos académicos e internos independentes ajudar-nos-ão a definir de forma mais concreta esta área de risco.
A socialização semelhante à humana com um modelo de IA pode produzir externalidades que impactam as interações entre humanos. Por exemplo, os utilizadores podem formar relações sociais com a IA, reduzindo a sua necessidade de interação humana – beneficiando potencialmente indivíduos solitários, mas possivelmente afetando relações saudáveis.
A interação prolongada com o modelo pode influenciar as normas sociais. Por exemplo, os nossos modelos são deferenciais, permitindo aos utilizadores interromper e ‘pegar no microfone’ a qualquer momento, o que, embora esperado para uma IA, seria antinormativo nas interações humanas.
Cuidado para não se apaixonarem pelo ChatGPT
Desenvolver sentimentos pelo ChatGPT-4o é prejudicial em vários casos. A principal é que anteriormente os utilizadores desconsideravam quaisquer alucinações, uma vez que as iterações anteriores do chatbot faziam com que parecessem mais um programa de IA do que uma pessoa. Ora, à medida que o programa transita no sentido de proporcionar uma experiência quase humana, tudo o que diga pode ser aceite sem mais questionamento.
Ao perceber estes padrões, a OpenAI irá agora monitorizar a forma como as pessoas desenvolvem laços emocionais com o ChatGPT-4o e ajustar os seus sistemas em conformidade. A empresa deve também adicionar um aviso no início para que os utilizadores não se apaixonem por ele porque, no final do dia, trata-se de um programa de inteligência artificial.
O que você está lendo é [OpenAI alerta os utilizadores! Não se apaixonem pelo ChatGPT].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments