Apple enfrenta multa de $1,2 mil milhões por incapacidade de combater imagens de abuso

Uma mulher de 27 anos, que foi vítima de abuso na infância, instaurou um processo judicial contra a Apple, onde acusa a empresa de não agir para impedir a contínua disseminação de imagens de abuso infantil. Este caso traz à tona os problemas que as empresas tecnológicas têm na gestão e denúncia de material de abuso sexual infantil (CSAM, originalmente) online.

Imagem ilustração sistema da Apple de combate à pornografia infantil no iCloud

O processo, submetido no Tribunal Distrital dos EUA no Norte da Califórnia, alega que a Apple não implementou integralmente uma ferramenta que havia prometido para identificar e remover imagens ilegais. A autora, que permanece anónima por questões de segurança, afirma que, apesar de a Apple ter desenvolvido um sistema chamado NeuralHash, 💥️a empresa abandonou a tecnologia após críticas de especialistas em cibersegurança.

De acordo com o ✅The New York Times, a ação legal procura representar cerca de 2680 potenciais vítimas, 💥️com indemnizações que poderão ultrapassar os 1,2 mil milhões de dólares.

A queixa coloca em causa a abordagem da Apple no combate ao CSAM, mesmo quando a empresa tem  relatado um número significativamente inferior de ocorrências 💥️comparativamente a gigantes tecnológicos como o Google e o Facebook.

Este caso reflete uma tendência emergente da procura de estratégias legais que desafiem a responsabilidade das empresas tecnológicas relativamente a conteúdos gerados por utilizadores. Recentes decisões judiciais nos EUA indicam que as proteções anteriormente garantidas pela Secção 230 do Communications Decency Act podem não ser aplicáveis de forma tão ampla como antes.

Apple tem afirmado o seu compromisso no combate ao CSAM

Entre as medidas introduzidas pela empresa estão avisos de conteúdo na aplicação Mensagens e métodos para denunciar material nocivo. No entanto, especialistas jurídicos 💥️acreditam que o processo enfrenta obstáculos consideráveis.

Riana Pfefferkorn, investigadora no Instituto de Inteligência Artificial Centrada no Humano de Stanford, destacou que um veredito favorável à acusação poderia levantar questões constitucionais complexas sobre a obrigatoriedade governamental de monitorização de conteúdos.

O processo surge num contexto de preocupações crescentes sobre como as plataformas tecnológicas lidam com conteúdos sensíveis. Desde 2009, quando a Microsoft desenvolveu a tecnologia PhotoDNA para identificar imagens ilegais, 💥️as empresas têm enfrentado dificuldades em equilibrar as preocupações com a privacidade e os esforços de proteção de crianças.

💥️Leia também:

Novidade absoluta da Apple a caminho? Prepara MacBook com conetividade 5G

O que você está lendo é [Apple enfrenta multa de $1,2 mil milhões por incapacidade de combater imagens de abuso].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...