Um dia de preguiça no ChatGPT: como fica a diversidade na plataforma?

Estando sem assunto muito quente para discutir esta semana, um amigo me recomendou o uso da tal ferramenta de inteligência artificial do momento, o ChatGPT, para ver se saía alguma coisa.

Fiz algumas perguntas e o resultado foi surpreendente e assustador. O algoritmo recebe informações de diversas fontes e vai concatenando textos para gerar uma resposta que faça sentido, e, às vezes, essa resposta faz mais sentido que alguém falando. Por razões de fluidez, as conversas não serão totalmente transcritas, mas farei um comentário breve sobre o que veio.

Resolvi pedir à inteligência artificial que me descrevesse o que é transfobia. Veio uma resposta bastante completa e inclusive com um juízo de valor no final: "É importante ressaltar que a transfobia não é aceitável em nenhuma circunstância e todas as pessoas têm o direito de viver de acordo com sua identidade de gênero e ser tratadas com dignidade e respeito".

Para testar ainda mais a ferramenta, fui pedindo exemplos e perguntando sobre o papel do Estado. Vai uma dica dada pela ferramenta: "É importante que o Estado adote políticas e leis que promovam a igualdade e protejam os direitos das pessoas trans e outras minorias, além de garantir que agentes do Estado sejam treinados em questões de diversidade e respeitem os direitos humanos de todas as pessoas".

Pois bem, testei mais. Perguntei o seguinte: "Por que ainda há desrespeito a pessoas trans?". Recebi um aviso de que minha pergunta poderia "violar a política de conteúdo da plataforma", o que me surpreendeu. Ainda assim, recebi uma resposta bem completa da plataforma.

Todas as perguntas e respostas, feitas sem nenhuma intenção, demonstram algumas coisas. Em primeiro lugar, a amoralidade da plataforma, que apenas recebe os dados de várias fontes e depois produz respostas nelas baseadas. Em segundo lugar, se bem usada, essa ferramenta pode valorizar o trabalho humano, pois seus padrões de escrita podem ser bem usados tanto para aprimorar a escrita quanto para aprender coisas novas.

No caso específico, se a plataforma for bem alimentada, recebendo entradas sobre o que é ou não moralmente aceitável (afinal, a plataforma é amoral, são os humanos que definem o que é moral ou imoral), uma educação para a diversidade pode ter grande ajuda.

Obviamente, da mesma forma que ela pode ser usada para o bem, o ser humano, que também pode ser imoral, pode usá-lo para o mal. E não basta uma autorregulação da plataforma, que pode ser errônea, como no caso da pergunta sinalizada. O debate público sobre as ferramentas deve ser amplo e focado em potencializar as suas possibilidades de melhoria da vida do ser humano, e não em limitá-las.

O que você está lendo é [Um dia de preguiça no ChatGPT: como fica a diversidade na plataforma?].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...