Inteligência artificial e Fake News: quais são os riscos da tecnologia?
(Imagem: Pixabay)
A disseminação de 💥️Fake News se dá pela divulgação de notícias falsas com objetivo de enraizar uma narrativa, muitas vezes política, sobre um determinado assunto. A ascensão da 💥️inteligência artificial preocupa alguns cientistas neste sentido, uma vez que otimiza a capacidade de criar textos mais humanizados, muitas vezes montado por quem utiliza.
O conceito veio à tona durante o governo Bolsonaro devido à CPI das 💥️Fake News, onde um inquérito foi instaurado para investigar a prática do governo da época.
Entretanto, durante as eleições dos Estados Unidos em 2018, muito foi discutido sobre a utilização das redes sociais e 💥️Fake News na intromissão da democracia americana.
O próprio criador do 💥️Meta, Mark Zuckerberg, chegou a ser julgado em tribunal devido a plataforma do Facebook e sua forma de divulgar conteúdos políticos.
Vale ressaltar que a plataforma faz utilização de base de dados para cruzamento de informações sobre distribuição de conteúdo, algo que pode ser aplamente otimizado com IA.
Além disso, a tecnologia também foi considerada um risco geopolítico para a Eurasia Group, consultoria norte-americana, em uma lista onde enumerou os dez principais riscos geopolíticos de 2023.
Inteligência “pouco” artificial, tá okay?
A ferramenta que massificou o uso de inteligência artificial no final de 2022, foi o ChatGPT da startup OpenAI. O chatbot é capaz de gerar respostas e interagir com o usuário de uma maneira mais humana, a partir dos dados com os quais foi treinado através da prática de machine learning.
Todavia, a diretriz do 💥️ChatGPT muitas vezes é de responder de forma lógica, e algumas vezes o robô foi flagrado por usuários criando uma narrativa falsa para justificar uma lógica em sua resposta, virando inclusive piada na internet.
A grande questão é, se o robô é capaz de “mentir” para tentar justificar uma lógica mostrada, ou perguntada a ele, essa habilidade poderia otimizar a divulgação, criação e disseminação das chamadas 💥️Fake News?
Para Arthur Igreja, palestrante e especialista em inovação e tecnologia, um dos grandes problemas é a falta de rastreabilidade de fontes.
O especialista lembra que a capacidade de saber qual a fonte da informação é uma das principais, e mais básicas, ferramentas para combater uma 💥️Fake News.
Tanto é, que os serviços de agências de checagens também pegaram tração nos últimos anos.
Empresas como Agência Lupa ou Aos Fatos apresentam modelos de checagem da veracidade de uma determinada notícia, e buscam a fonte para confirmar ou desmistificar ela.
Problemas geopolíticos; ChatGPT é sinônimo de Skynet?
No que tange a riscos geopolíticos, a tecnologia por trás do ChatGPT pode ser utilizada para criação de narrativas falsas. O método de como pode ser feito é através da base de dados fornecida para a inteligência artificial.
Igreja explica que, uma IA treinada em uma base de dados comprometida, com falsas narrativas, poderia ser utilizada para gerar conteúdos Fakes.
“Como já aconteceu com a IA no passado. A IA seria treinada com uma base de dados, que por exemplo, afirmava que não tinha acontecido o extermínio de seis milhões de judeus na segunda guerra mundial”, diz.
Não apenas em informação de texto, mas as ferramentas de vídeos e voz também podem causar tumultos ao aplicar conceitos como “Deep Fake” & onde o rosto de uma pessoa é substituído por outro em um vídeo.
Ferramentas como D-ID já são capazes de gerar faces extremamente humanas a partir de dados, deep learning e inteligência artificial. A empresa oferece assinatura do serviço para quem quiser utilizar a plataforma.
Como combater Fake News geradas por inteligência artificial?
Muitos discutem que a melhor maneira de combater as informações falsas é com a própria inteligência artificial. Tudo depende da base de dados em que são treinadas, os recursos que possuem acesso e a maneira que são utilizadas.
Além da opção acima, a regulação dessa tecnologia é um atrativo para outros. Entretanto, uma regulação que não sufoque a inovação do setor precisa ser feita por quem entende do assunto, e saiba de que forma será tratado.
A própria plataforma DALL-E, e MidJourney, ferramentas de geração de imagens, possuem regras e diretrizes. O usuário não pode solicitar imagens violentas, e nem de pessoas famosas como políticos, empresários e pessoas públicas.
O ChatGPT também possui diretrizes. A ferramenta não vai ensinar algo que coloque você ou outra pessoa em risco como por exemplo “como assassinar uma pessoa sem ser descoberto”.
Muito embora, alguns profissionais de programação, conseguiram burlar essa diretriz, e fazer com até com que o ChatGPT fosse “irônico” em suas respostas.
O que você está lendo é [Inteligência artificial e Fake News: quais são os riscos da tecnologia?].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments