WhatsApp critica nova função da Apple que escaneia fotos no iPhone

As novas funções da Apple para combater fotos de abuso infantil no iPhone foram alvo de críticas nesta sexta-feira (6) pelo chefe do WhatsApp Will Cathcart. Entre as ferramentas ainda não lançadas, mas já polêmicas, está a digitalização de fotos do iCloud com o objetivo de reconhecer imagens de abuso sexual infantil (CSAM, na sigla em inglês). O recurso de segurança infantil em questão compara as imagens armazenadas no iCloud com conteúdos dos bancos de dados do CSAM.

LEIA: Novo iOS tem funções para proteger iPhone; veja

Ao Financial Times, o chefe do WhatsApp declarou que a abordagem da empresa da maçã é muito preocupante para a privacidade das pessoas. Já no Twitter, Will Cathcart anunciou que o WhatsApp nunca adotará tal sistema de detecção de conteúdos impróprios, optando por incentivar a política de denúncias entre seus usuários.

Novas funcionalidades de segurança infantil da Apple são recebidas com críticas pelo chefe do WhatsApp — Foto: Divulgação/Pexels (by Andrea Piacquadio) 1 de 2 Novas funcionalidades de segurança infantil da Apple são recebidas com críticas pelo chefe do WhatsApp — Foto: Divulgação/Pexels (by Andrea Piacquadio)

Novas funcionalidades de segurança infantil da Apple são recebidas com críticas pelo chefe do WhatsApp — Foto: Divulgação/Pexels (by Andrea Piacquadio)

iPhone travado na tela da maçã: como resolver? Descubra no Fórum do TechTudo.

Em fio postado no Twitter nesta sexta-feira (6), Will Cathcart questionou que o novo recurso pode ser usado para outros fins e invadir a privacidade dos usuários. O chefe do WhatsApp defendeu que seria melhor desenvolver ferramentas que facilitem a denúncia de conteúdos impróprios na plataforma. Ele, inclusive, usou como exemplo as próprias funções de denúncia do WhatsApp, e lembrou que o mensageiro relatou mais de 400 mil casos ano passado sem comprometer a criptografia do aplicativo.

2 de 2 O anúncio das novas funcionalidades de segurança infantil da Apple vieram acompanhadas de críticas — Foto: Divulgação/Apple

O anúncio das novas funcionalidades de segurança infantil da Apple vieram acompanhadas de críticas — Foto: Divulgação/Apple

Além da "Detecção de CSAM", a Apple também anunciou a "Segurança de comunicação em mensagens", um recurso para auxiliar os pais a proteger os filhos. A ferramenta oculta imagens detectadas como impróprias no aplicativo Mensagens. A foto é exibida em branco com um aviso às crianças de que "isso pode ser confidencial". Caso a criança opte por visualizar a imagem mesmo assim, ela é informada de que seus pais receberão um alerta da ação.

A Apple afirma que a análise de anexos de imagem e o reconhecimento de fotos explícitas funcionam por inteligência artificial. A empresa reitera que não tem acesso às mensagens e que o recurso não rompe com a criptografia do iMessage. Além disso, o sistema de detecção de imagens das duas funções é diferente e funciona separadamente. No caso das fotos explícitas enviadas por mensagem, nem a Apple nem instituições governamentais são notificadas.

A Apple deve lançar os recursos nas atualizações de fim de ano do iOS 15, iPadOS 15 e macOS Monterey, para as contas configuradas como família no iCloud.

Com informações de Apple, SlashGear e BGR

O que você está lendo é [WhatsApp critica nova função da Apple que escaneia fotos no iPhone].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...