Falsificar sons com IA é mais fácil do que parece. Especialista em cibersegurança deixa alerta
"Não devia fazer publicidade a isto, 💥️mas é fácil descarregar programas que nos permitem colocar a voz de alguém e fazer um bom deepfake”, afirmou, durante uma palestra na Regent’s University em Londres.
💥️Já os vídeos, explicou, “é muito mais difícil [os falsos] porque não têm grande qualidade”, pelo que é mais fácil a jornalistas os identificarem através de “bom senso".
Na opinião do especialista, 💥️a comunicação social tem de ser responsável e atenta na forma como trata este tipo de informação.
Recentemente no Reino Unido o líder do Partido Trabalhista, Keir Starmer, e o presidente da Câmara Municipal de Londres, foram vítimas de áudios falsificados por Inteligência Artificial (IA).
No segundo caso, foi o próprio secretário de Estado da Administração Interna, Tom Tugendhat, que alertou para a situação e pediu nas redes sociais para que as pessoas e a comunicação social não os difundissem.
ONU alerta para elevado risco no uso indevido de inteligência artificial em ano de muitas eleições
Ver artigo💥️"Pessoas hostis vão tentar interferir nas nossas eleições, mas não significa que sejamos impotentes”, afirmou Martin.
“Podemos confiar em organizações de comunicação social responsáveis, o que penso que tem sido preservado e mantido, e no consenso político, quando as pessoas dizem que vão tratar falsificações como um ataque à democracia”, vincou.
O que você está lendo é [Falsificar sons com IA é mais fácil do que parece. Especialista em cibersegurança deixa alerta ].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments