Como o áudio Deepfake pode interferir nas eleições: Governos e cidadãos devem estar

A inteligência artificial consegue gerar áudios de figuras públicas e políticas e manipular contextos que podem levar as pessoas ao engano. A iniciativa Cidadãos pela Cibersegurança alerta para o perigo nas eleições e dicas como detetar áudio deepfake. Como o áudio Deepfake pode interferir nas eleições: Governos e cidadãos devem estar atentos à desinformação Fact or Fake concept, Hand flip wood cube change the word, April fools day

A utilização dos modelos de IA generativa estão a ser bastante úteis na transformação digital das empresas e cidadãos, assim da Administração Pública. Este foi, aliás, o principal tema da conferência Portugal Digital Summit, realizada esta semana na Exponor. 💥️Mas existe todo o lado obscuro da tecnologia, a criação de conteúdos falsos, incluindo imitações credíveis de figuras públicas, as chamadas Deepfakes.

Recentemente, o ator Tom Hanks partilhou nas redes sociais como a sua imagem e voz estava a ser utilizada numa campanha publicitária para vender planos dentários, sem que o mesmo estivesse envolvido ou autorizado. 💥️Este tipo de abuso está a ser debatido pelos reguladores nos Estados Unidos, tendo-se apresentado propostas de lei para proteger atores e artistas contra o uso indevido da sua imagem, o No Fakes Act.

A iniciativa Cidadãos pela Cibersegurança (CpC) deixou o alerta para o perigo do áudio Deepfake, sobretudo num contexto político, deixando o exemplo do que aconteceu nas últimas eleições legislativas na Eslováquia, e que servem de aviso a Portugal. Nos dois dias usados para reflexão, antes do dia de eleições, tal como acontece em Portugal, os partidos políticos não podem fazer campanha ou declarações. 💥️Porém, foram partilhados áudios deepfake nas redes sociais nos dias antes das eleições.

No Fakes Act: proposta de lei federal quer proteger atores e artistas do uso não autorizado de IA

Ver artigo

💥️Entre os áudios falsos ouvia-se Michal Šimečka, do partido “Liberal Progressivo” e Monika Tódová do jornal “Denník N” a debater formas de falsificar as eleições com a compra de votos da comunidade local. Surgiram outros áudios, como por exemplo um candidato que queria duplicar o preço da cerveja.

Nos exemplos dos áudios partilhados e provados que eram conteúdo falso gerado por IA, não foram tomadas as medidas rápidas para tirar estes conteúdos do ar, antes que conseguissem tornar-se virais. E 💥️neste caso, a não ser cumprido o Regulamento dos Serviços Digitais imposto pela União Europeia que obriga as redes sociais a eliminarem proactivamente os conteúdos falsos em 24 horas. Veja-se em contraste como as redes sociais como o TikTok e a X (Twitter) estiveram recentemente na mira pela Comissão Europeia por não agirem rapidamente à partilha de deepfakes e conteúdos falsos em torno dos conflitos entre Israel e o Hamas.

E Israel é um dos exemplos mais recentes de como os conteúdos deepfake gerados por inteligência artificial estão a ser utilizados para gerar vídeos falsos da guerra em Gaza. 💥️Desde o massacre em Israel do dia 7 de outubro que muitos destes conteúdos falsos estão a inundar as redes sociais. Mais importante, as agências noticiosas têm de estar preparadas para a escala deste tipo de conteúdo.

A 💥️CEO da CBS News, Wendy McMahon, afirmou que que a rede recebeu mais de 1.000 vídeos sobre a guerra entre Israel e o Hamas, mas apenas 10% puderam ser utilizadas, explicou à agência Axios. Este tipo de conteúdo que leva à desinformação está a obrigar às agências de notícias a investir nas suas próprias capacidades de IA e no combate às notícias falsas. É preciso novos standard e protocolos para proteger a credibilidade das fontes noticiosas e os seus espetadores, disse Wendy McMahon e pede que outras agências façam o mesmo para se protegerem deste flagelo.

Deepfakes que manipulam imagens reais para porno estão fora de controlo. Mulheres são mais visadas

Ver artigo

No caso do áudio deepfake, como refere o CpC, o padrão comum nestes casos é o uso de palavras montadas por IA, mas as análises dos especialistas não são imediatas e são sempre realizadas a pedido e com pagamento. Estas deepfakes conseguem também sintetizar frases a partir de amostras de frases das personalidades visadas. Os 💥️sistemas de deep learning tornam as simulações de áudio mais realistas, que segundo a CpC vai tornar-se em breve quase impossível de distinguir dos áudios reais.

Atualmente, através do ChatGPT pode-se fazer textos com discursos políticos credíveis, que pode incluir frases e expressões usados pelos alvos. E com poucos dólares pagar os serviços que geram áudios a partir de amostras. Num contexto de se realizar falsificações em Portugal, 💥️nos testes realizados pelo CpC, nenhuma plataforma testada conseguiu produzir para já áudios credíveis. 💥️Isto porque os modelos de voz têm sotaque do português do Brasil.

Mas salienta que a tecnologia já existe e pode ser uma questão de meses até as ferramentas serem atualizadas com voz em português europeu nas plataformas existentes. 💥️Mas também existem outras ferramentas não comerciais que já podem ser usadas por grandes empresas e organizações que tenham a sua própria agenda.

E com isso, o 💥️CpC deixa o alerta para as próximas eleições em Portugal para o Parlamento Europeu em junho do próximo ano. Poderão haver campanhas maliciosas, com o uso de ferramentas de IA para criar deepfakes para interferir com desinformação na eleição dos deputados para o Parlamento Europeu.

“A CNE (Centro Nacional de Eleições) deve estar particularmente atenta a estes fenómenos conhecidos como “deepfakes audio” e ter mecanismos de resposta rápida”, salienta a CpC, aconselhando à 💥️realização de contratos com empresas especializadas neste tipo de investigação e na criação de uma equipa dedicada para receber e processar as denúncias.

Deixa também algumas dicas e pistas que podem ajudar a identificar um possível áudio deepfake. Os 💥️áudios podem ter cadências vocais irregulares, assim como resíduos de áudio nas transições entre palavras.

Para uma identificação mais complexa e profissional, é referida a 💥️análise do especto, assim como uso de algoritmos de deep learning para analisar gravações reais do autor e comparar o áudio do alegado deep fake. Por fim, a deteção de artefactos de áudio inseridos nos registos sonoros.

O que você está lendo é [Como o áudio Deepfake pode interferir nas eleições: Governos e cidadãos devem estar ].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...