Home Tecnologia Ao monitorar o abuso sexual de crianças, a Apple fica presa entre a segurança e a privacidade

Ao monitorar o abuso sexual de crianças, a Apple fica presa entre a segurança e a privacidade

Por Humberto Marchezini


Em 2021, a Apple se envolveu em polêmica sobre um plano para escanear iPhones em busca de materiais de abuso sexual infantil. Especialistas em privacidade alertaram que os governos poderiam abusar do sistema, e a reação foi tão severa que a Apple acabou abandonando o plano.

Dois anos depois, a Apple enfrenta críticas de defensores da segurança infantil e investidores ativistas que pedem à empresa que faça mais para proteger as crianças do abuso online.

Um grupo de defesa da criança chamado Heat Initiative arrecadou US$ 2 milhões para uma nova campanha publicitária nacional que pede à Apple que detecte, denuncie e remova materiais de abuso sexual infantil do iCloud, sua plataforma de armazenamento em nuvem.

Na próxima semana, o grupo lançará anúncios digitais em sites populares entre os legisladores de Washington, como o Politico. Também colocará cartazes em São Francisco e Nova York que dizem: “O material de abuso sexual infantil é armazenado no iCloud. A Apple permite isso.”

A crítica fala de uma situação que persegue a Apple há anos. A empresa tornou a proteção da privacidade uma parte central de sua apresentação do iPhone aos consumidores. Mas essa promessa de segurança ajudou a tornar os seus serviços e dispositivos, dois mil milhões dos quais estão em utilização, ferramentas úteis para a partilha de imagens de abuso sexual infantil.

A empresa está presa entre grupos de segurança infantil, que querem que ela faça mais para impedir a disseminação de tais materiais, e especialistas em privacidade, que querem que ela mantenha a promessa de dispositivos seguros.

Um grupo de duas dúzias de investidores com quase US$ 1 trilhão em ativos sob gestão também apelou à Apple para denunciar publicamente o número de imagens abusivas que captura em seus dispositivos e serviços.

Dois investidores – Degroof Petercam, um gestor de ativos belga, e Christian Brothers Investment Services, uma empresa de investimento católica – apresentarão este mês uma proposta de acionistas que exigiria que a Apple fornecesse um relatório detalhado sobre a eficácia das suas ferramentas de segurança na proteção das crianças.

“A Apple parece presa entre a privacidade e a ação”, disse Matthew Welch, especialista em investimentos da Degroof Petercam. “Achamos que uma proposta despertaria a administração e faria com que levassem isso mais a sério.”

A Apple foi rápida em responder aos defensores da segurança infantil. No início de agosto, seus executivos de privacidade se reuniram com o grupo de investidores, disse Welch. Então, na quinta-feira, a empresa respondeu a um e-mail da Heat Initiative com uma carta que defendeu sua decisão de não escanear o iCloud. Compartilhou a correspondência com Com fiouma publicação de tecnologia.

Na carta da Apple, Erik Neuenschwander, diretor de privacidade do usuário e segurança infantil, disse que a empresa concluiu que “não era praticamente possível” digitalizar fotos do iCloud sem “colocar em perigo a segurança e a privacidade de nossos usuários”.

“A varredura de um tipo de conteúdo, por exemplo, abre a porta para vigilância em massa e pode criar o desejo de pesquisar outros sistemas de mensagens criptografadas”, disse Neuenschwander.

A Apple, acrescentou ele, criou um novo recurso padrão para todas as contas de crianças que intervém com um aviso caso recebam ou tentem enviar imagens de nudez. Foi concebido para impedir a criação de novos materiais de abuso sexual infantil e limitar o risco de predadores coagirem e chantagearem crianças por dinheiro ou imagens de nudez. Ele também disponibilizou essas ferramentas para desenvolvedores de aplicativos.

Em 2021, a Apple disse que usaria uma tecnologia chamada hashes de imagem para detectar material abusivo em iPhones e no iCloud.

Mas a empresa não conseguiu comunicar amplamente esse plano aos especialistas em privacidade, intensificando o seu ceticismo e alimentando a preocupação de que a tecnologia pudesse ser abusada pelos governos, disse Alex Stamos, diretor do Stanford Internet Observatory no Cyber ​​Policy Center, que se opôs à ideia.

No ano passado, a empresa abandonou discretamente seu plano de escanear o iCloud, pegando de surpresa grupos de segurança infantil.

A Apple recebeu elogios de grupos de privacidade e segurança infantil por seus esforços para impedir a criação de novas imagens de nudez no iMessage e em outros serviços. Mas Stamos, que aplaudiu a decisão da empresa de não digitalizar iPhones, disse que ela poderia fazer mais para impedir que as pessoas compartilhassem imagens problemáticas na nuvem.

“Você pode ter privacidade se armazenar algo para si mesmo, mas se compartilhar algo com outra pessoa, não terá a mesma privacidade”, disse Stamos.

Governos de todo o mundo estão pressionando a Apple para que tome medidas. Ano passado, O Comissário de eSafety na Austrália emitiu um relatório criticando a Apple e a Microsoft por não terem feito mais para policiar proativamente seus serviços em busca de material abusivo.

Nos Estados Unidos, a empresa fez 121 denúncias em 2021, para o Centro Nacional para Crianças Desaparecidas e Exploradas, uma câmara de compensação designada pelo governo federal para material abusivo. O Google fez 875.783 denúncias, enquanto o Facebook fez 22 milhões. Estas denúncias nem sempre refletem material verdadeiramente abusivo; alguns pais tiveram suas contas do Google suspensas e foram denunciados à polícia por imagens de seus filhos que não eram de natureza criminosa.

A Heat Initiative programou sua campanha antes do lançamento anual do iPhone da Apple, que está agendado para 12 de setembro. A campanha está sendo liderada por Sarah Gardner, que anteriormente foi vice-presidente de assuntos externos da Thorn, uma organização sem fins lucrativos fundada por Ashton Kutcher e Demi. Moore para combater o abuso sexual infantil online. A Sra. Gardner arrecadou dinheiro de vários apoiadores da segurança infantil, incluindo a Children’s Investment Fund Foundation e a Oak Foundation.

O grupo construiu um site que documenta casos de aplicação da lei onde o iCloud foi nomeado. A lista incluirá acusações de pornografia infantil contra um homem de 55 anos em Nova York que tinha mais de 200 imagens armazenadas no iCloud.

Gardner disse que a Heat Initiative planejava direcionar a publicidade durante o outono em áreas onde os clientes e funcionários da Apple a encontrariam. “O objetivo é continuar a aplicar as táticas até que a Apple mude sua política”, disse Gardner.

Kashmir Hill contribuiu com relatórios.



Source link

Related Articles

Deixe um comentário