WhatsApp critica nova função da Apple que escaneia fotos no iPhone
As novas funções da Apple para combater fotos de abuso infantil no iPhone foram alvo de críticas nesta sexta-feira (6) pelo chefe do WhatsApp Will Cathcart. Entre as ferramentas ainda não lançadas, mas já polêmicas, está a digitalização de fotos do iCloud com o objetivo de reconhecer imagens de abuso sexual infantil (CSAM, na sigla em inglês). O recurso de segurança infantil em questão compara as imagens armazenadas no iCloud com conteúdos dos bancos de dados do CSAM.
LEIA: Novo iOS tem funções para proteger iPhone; veja
Ao Financial Times, o chefe do WhatsApp declarou que a abordagem da empresa da maçã é muito preocupante para a privacidade das pessoas. Já no Twitter, Will Cathcart anunciou que o WhatsApp nunca adotará tal sistema de detecção de conteúdos impróprios, optando por incentivar a política de denúncias entre seus usuários.
1 de 2 Novas funcionalidades de segurança infantil da Apple são recebidas com críticas pelo chefe do WhatsApp — Foto: Divulgação/Pexels (by Andrea Piacquadio)Novas funcionalidades de segurança infantil da Apple são recebidas com críticas pelo chefe do WhatsApp — Foto: Divulgação/Pexels (by Andrea Piacquadio)
iPhone travado na tela da maçã: como resolver? Descubra no Fórum do TechTudo.
Em fio postado no Twitter nesta sexta-feira (6), Will Cathcart questionou que o novo recurso pode ser usado para outros fins e invadir a privacidade dos usuários. O chefe do WhatsApp defendeu que seria melhor desenvolver ferramentas que facilitem a denúncia de conteúdos impróprios na plataforma. Ele, inclusive, usou como exemplo as próprias funções de denúncia do WhatsApp, e lembrou que o mensageiro relatou mais de 400 mil casos ano passado sem comprometer a criptografia do aplicativo.
2 de 2 O anúncio das novas funcionalidades de segurança infantil da Apple vieram acompanhadas de críticas — Foto: Divulgação/AppleO anúncio das novas funcionalidades de segurança infantil da Apple vieram acompanhadas de críticas — Foto: Divulgação/Apple
Além da "Detecção de CSAM", a Apple também anunciou a "Segurança de comunicação em mensagens", um recurso para auxiliar os pais a proteger os filhos. A ferramenta oculta imagens detectadas como impróprias no aplicativo Mensagens. A foto é exibida em branco com um aviso às crianças de que "isso pode ser confidencial". Caso a criança opte por visualizar a imagem mesmo assim, ela é informada de que seus pais receberão um alerta da ação.
A Apple afirma que a análise de anexos de imagem e o reconhecimento de fotos explícitas funcionam por inteligência artificial. A empresa reitera que não tem acesso às mensagens e que o recurso não rompe com a criptografia do iMessage. Além disso, o sistema de detecção de imagens das duas funções é diferente e funciona separadamente. No caso das fotos explícitas enviadas por mensagem, nem a Apple nem instituições governamentais são notificadas.
A Apple deve lançar os recursos nas atualizações de fim de ano do iOS 15, iPadOS 15 e macOS Monterey, para as contas configuradas como família no iCloud.
Com informações de Apple, SlashGear e BGR
O que você está lendo é [WhatsApp critica nova função da Apple que escaneia fotos no iPhone].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments