Em dezembro, a Apple disse que estava acabando com um esforço para projetar uma ferramenta de digitalização de fotos do iCloud que preservasse a privacidade para detectar material de abuso sexual infantil (CSAM) na plataforma. Anunciado originalmente em agosto de 2021, o projeto gerou polêmica desde seu início. A Apple o interrompeu pela primeira vez em setembro em resposta às preocupações de grupos e pesquisadores de direitos digitais de que tal ferramenta seria inevitavelmente abusada e explorada para comprometer a privacidade e a segurança de todos os usuários do iCloud. Esta semana, um novo grupo de segurança infantil conhecido como Heat Initiative disse à Apple que está organizando uma campanha para exigir que a empresa “detecte, denuncie e remova” material de abuso sexual infantil do iCloud e ofereça mais ferramentas para os usuários denunciarem CSAM ao empresa.
Hoje, em um movimento raro, a Apple respondeu à Heat Initiative, delineando suas razões para abandonar o desenvolvimento de seu recurso de digitalização CSAM iCloud e, em vez disso, concentrando-se em um conjunto de ferramentas e recursos no dispositivo para usuários conhecidos coletivamente como recursos de segurança de comunicação. A resposta da empresa à Heat Initiative, que a Apple compartilhou com a WIRED esta manhã, oferece uma rara visão não apenas de sua justificativa para migrar para a Segurança da Comunicação, mas de suas visões mais amplas sobre a criação de mecanismos para contornar as proteções de privacidade do usuário, como a criptografia, para monitorar dados. Esta posição é relevante para o debate sobre a encriptação de forma mais ampla, especialmente porque países como o Reino Unido ponderam a aprovação de leis que exigiriam que as empresas tecnológicas pudessem aceder aos dados dos utilizadores para cumprir os pedidos das autoridades.
“O material de abuso sexual infantil é abominável e estamos comprometidos em quebrar a cadeia de coerção e influência que torna as crianças suscetíveis a ele”, escreveu Erik Neuenschwander, diretor de privacidade do usuário e segurança infantil da Apple, na resposta da empresa à Heat Initiative. Ele acrescentou, porém, que depois de colaborar com uma série de pesquisadores de privacidade e segurança, grupos de direitos digitais e defensores da segurança infantil, a empresa concluiu que não poderia prosseguir com o desenvolvimento de um mecanismo de verificação de CSAM, mesmo que fosse construído especificamente para preservar a privacidade. .
“A varredura dos dados do iCloud armazenados de forma privada de cada usuário criaria novos vetores de ameaças para os ladrões de dados encontrarem e explorarem”, escreveu Neuenschwander. “Também injetaria o potencial para uma ladeira escorregadia de consequências não intencionais. A varredura de um tipo de conteúdo, por exemplo, abre a porta para vigilância em massa e pode criar o desejo de pesquisar outros sistemas de mensagens criptografadas em vários tipos de conteúdo.”
A WIRED não conseguiu entrar em contato imediatamente com a Heat Initiative para comentar a resposta da Apple. O grupo é liderado por Sarah Gardner, ex-vice-presidente de relações externas da organização sem fins lucrativos Thorn, que trabalha no uso de novas tecnologias para combater a exploração infantil online e o tráfico sexual. Em 2021, Thorn elogiou o plano da Apple de desenvolver um recurso de digitalização CSAM do iCloud. Gardner disse em um e-mail ao CEO Tim Cook na quarta-feira, 30 de agosto, que a Apple também compartilhou com a WIRED, que a Heat Initiative considerou a decisão da Apple de eliminar o recurso “decepcionante”.
“Acreditamos firmemente que a solução que você revelou não apenas posicionou a Apple como líder global em privacidade do usuário, mas também prometeu erradicar milhões de imagens e vídeos de abuso sexual infantil do iCloud”, escreveu Gardner a Cook. “Faço parte de uma iniciativa em desenvolvimento que envolve especialistas e defensores preocupados em segurança infantil que pretendem se envolver com você e sua empresa, a Apple, sobre seu atraso contínuo na implementação de tecnologia crítica… O abuso sexual infantil é uma questão difícil que ninguém quer falar sobre, e é por isso que é silenciado e deixado para trás. Estamos aqui para garantir que isso não aconteça.”