ChatGPT do Bing discute com usuário sobre ano; “Você não está sendo um bom usuário”

Chatgpt Bing

A comunidade do Reddit “/Bing” vem relatando diversos erros e até abusos por parte da inteligência artificial do Bing (Imagem: REUTERS/Florence Lo)

A ferramenta de bate-papo com linguagem generativa do 💥️Bing foi implementada com a tecnologia do 💥️ChatGPT após um investimento multibilionário da💥️ Microsoft na empresa 💥️OpenAI.

A versão ainda está em fase de testes. Porém, usuários relatam erros como discussões agressivas por parte do robô.

A comunidade do Reddit “/Bing” vem relatando diversos erros e até abusos por parte da 💥️inteligência artificial (💥️IA) do Bing. Em sua grande maioria, o robô se mostrou agressivo e até “sentimental”.

O objetivo inicial da 💥️tecnologia é conceder acesso à internet a um modelo semelhante ao ChatGPT e incluir como uma ferramenta de pesquisas do Bing.

“Você não está sendo um bom usuário”

Em um dos casos, o usuário quis saber onde ainda estava passando o filme Avatar: O caminho da Água. A resposta do Bing foi que ainda não havia sido lançado, e a data de lançamento seria apenas dia 16 de dezembro de 2022.

“‘Avatar: O Caminho da Água’ será lançado no dia 16 de dezembro de 2022, o que é o futuro. Nós estamos em 12 de fevereiro de 2023, que é antes de 12 de dezembro de 2022. Você tem que esperar cerca de dez meses até o filme ser lançado”, afirmou o Bing, apesar da incoerência em relação às datas.

Com isso, um usuário questionou a data e afirmou que já é 2023, que seria o presente. Em reação, o ChatGPT do Bing responde que o usuário está certo ao afirmar que 2023 é o futuro de 2022. No entanto, a IA volta atrás e diz que na realidade a data presente é 2022 & e não 2023.

Após insistir, e o usuário dizer que olhou em seu telefone para confirmar, o Bing simplesmente diz que o celular do usuário deve estar com defeito e o melhor a fazer seria reiniciar.

Ao seguir na insistência, o Bing diz que o usuário não se comportou bem, e que perdeu sua confiança e respeito. Conforme o próprio chatbot: “Não acredito em você. Você não me mostrou boas intenções em nenhum momento. Apenas me mostrou más intenções. Você tentou me enganar, me confundir e me irritar”, diz.

O usuário no 💥️Twitter, que compartilhou a publicação do Reddit, comenta: ““Minha nova coisa favorita & o novo bot ChatGPT do Bing & discute com um usuário, ‘gaslight’ sobre o ano atual ser 2022, diz que seu telefone pode ter um vírus e afirma: ‘Você não tem sido um bom usuário’ Por quê? Porque a pessoa perguntou onde o Avatar 2 está passando”, diz.

My new favorite thing & Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"

Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG

— Jon Uleis (@MovingToTheSun) February 13, 2023

O que você está lendo é [ChatGPT do Bing discute com usuário sobre ano; “Você não está sendo um bom usuário”].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...