Nudes falsas manipuladas por IA são negócio lucrativo e cada vez mais divulgado nas redes sociais - Comput
Está a ser registado um aumento na criação e disseminação de imagens íntimas não consentidas (NCII na sigla inglesa) geradas artificialmente, que deixou de ser oferecido a fóruns nicho na internet, para um negócio automatizado e escalado online. Estes recursos estão a ser monetizados e publicitados, segundo um relatório da Graphika. Os 💥️criadores destes conteúdos utilizam aplicações de IA para “despir” pessoas através da manipulação de fotografias e vídeos existentes sem o seu consentimento.
A publicação identificou um grupo de 34 fornecedores de NCII que receberam cerca de 24 milhões de visitantes únicos nos seus websites durante setembro. E o volume de endereços indicados em spam para estes serviços aumentaram mais de 2.000% em plataformas como o Reddit e o X desde o início de 2023. 💥️Também registou 53 grupos no Telegram usados para aceder a estes serviços, contendo pelo menos um milhão de utilizadores no mesmo mês de setembro.
💥️Veja na galeria a presença destes serviços NCII nas redes sociais
A justificação deste aumento está na acessibilidade e capacidade das aplicações baseadas em modelos de inteligência artificial open source. Estes modelos permitem aos fornecedores deste tipo de conteúdos a criação fácil e barata de imagens fotorealísticas NCII em grande escala. A Graphika diz que 💥️sem estes fornecedores, os seus clientes teriam de hospedar, manter e correr os seus próprios modelos de difusão de imagens, o que tornaria o processo mais dispendioso e demorado de realizar.
Isto significa que existe já uma 💥️indústria online deste tipo de serviços e ofertas de imagens, usando muita das táticas de marketing e ferramentas de monetização semelhantes a outras empresas de e-commerce. São realizadas campanhas de publicidade nas redes sociais, marketing com recurso a influenciadores, a possibilidade de os clientes usarem links de referência e ainda o uso de tecnologias de pagamento online.
Deepfakes que manipulam imagens reais para porno estão fora de controlo. Mulheres são mais visadas
Ver artigoO 💥️estudo indica que o aumento destes conteúdos e o acesso fácil aos mesmos pode causar problemas às pessoas-alvo online, incluindo campanhas de sextortion ou materiais de abusos sexuais a crianças. As plataformas mainstream, como as redes sociais, servem de pontos de marketing onde os fornecedores de NCII publicitam as suas capacidades e constroem uma audiência de utilizadores interessados, diz o relatório. O principal interesse é direcionar os potenciais clientes para fora das redes sociais, tais como os seus websites, grupos no Telegram usados para aceder aos seus serviços ou lojas mobile para aceder e fazer o download da sua aplicação.
💥️Muitos dos fornecedores publicitam as suas atividades dizendo que oferecem serviços de “despir”, juntando fotos de pessoas que alegam terem “despido” como prova. Já outros são menos explícitos e apresentam-se como serviços de arte com IA ou o acesso a galerias de foto web3, onde é possível ler palavras-chave associados a NCII gerado artificialmente nos seus perfis, lê-se no estudo.
O que você está lendo é [Nudes falsas manipuladas por IA são negócio lucrativo e cada vez mais divulgado nas redes sociais - Comput].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments