Home Tecnologia A digitalização CSAM seria abusada, diz a Apple, em uma reviravolta irônica

A digitalização CSAM seria abusada, diz a Apple, em uma reviravolta irônica

Por Humberto Marchezini


Quando a Apple anunciou a sua própria abordagem à digitalização CSAM, muitos de nós alertamos que o processo utilizado para verificar materiais de abuso sexual infantil acabaria por ser abusado por governos repressivos para procurar coisas como planos de protesto político.

A empresa de Cupertino rejeitou esse raciocínio na altura, mas numa reviravolta irónica está agora a usar precisamente este argumento em resposta ao governo australiano…

Planos originais de digitalização CSAM da Apple

A Apple planejou originalmente realizar a verificação de CSAM no dispositivo, usando uma técnica de impressão digital.

Essas impressões digitais são uma forma de combinar imagens específicas sem que ninguém precise visualizá-las e são projetadas para serem suficientemente confusas para continuar a corresponder a imagens que foram cortadas ou editadas de outra forma, gerando ao mesmo tempo muito poucos falsos positivos.

Para ser claro, a proposta da Apple era uma abordagem que respeitava a privacidade, já que a digitalização seria realizada pelos nossos próprios dispositivos e ninguém jamais olharia nenhuma das nossas fotos, a menos que várias correspondências fossem sinalizadas.

O problema do governo repressivo

O problema, como muitos de nós observamos, era o potencial de abuso por parte de governos repressivos.

Uma impressão digital pode ser criada para qualquer tipo de material, não apenas CSAM. Não há nada que impeça um governo autoritário de adicionar ao banco de dados imagens de cartazes de campanhas políticas ou similares.

Uma ferramenta concebida para atingir criminosos graves poderia ser adaptada de forma trivial para detectar aqueles que se opõem a um governo ou a uma ou mais das suas políticas. A Apple – que receberia a base de dados de impressões digitais dos governos – acabaria por ajudar involuntariamente a repressão, ou pior, a activistas políticos.

A Apple alegou que nunca teria permitido isso, mas a promessa baseava-se no fato de a Apple ter a liberdade legal de recusar, o que simplesmente não seria o caso. Na China, por exemplo, a Apple foi legalmente obrigada a remover VPN, notícias e outros aplicativos, e a armazenar os dados do iCloud de cidadãos chineses em um servidor de propriedade de uma empresa controlada pelo governo.

Não havia nenhuma maneira realista de a Apple prometer que não cumpriria os requisitos futuros para processar bancos de dados de “imagens CSAM” fornecidos pelo governo, que também incluem correspondências com materiais usados ​​por críticos e manifestantes. Como a empresa tem dito frequentemente ao defender as suas ações em países como a China, a Apple cumpre a lei em cada um dos países em que opera.

A reviravolta em três estágios da Apple

A Apple inicialmente rejeitou este argumento, mas disse que, em resposta à preocupação generalizada sobre o assunto, decidiu abandonar os seus planos de qualquer maneira.

Posteriormente, a empresa mudou sua postura e passou a admitir que o problema existia.

Erik Neuenschwander, diretor de privacidade do usuário e segurança infantil da Apple, escreveu: “Isso (…) injetaria o potencial para uma ladeira escorregadia de consequências não intencionais. A varredura de um tipo de conteúdo, por exemplo, abre a porta para vigilância em massa e pode criar o desejo de pesquisar outros sistemas de mensagens criptografadas em vários tipos de conteúdo.”

Chegamos agora ao estágio três: a própria Apple usando o argumento que inicialmente rejeitou.

Apple usa argumento contra governo australiano

O governo australiano está propondo forçar as empresas de tecnologia a procurar CSAM, e O guardião relata que a Apple agora está usando o argumento da ladeira escorregadia para combater o plano.

A Apple alertou que uma proposta australiana para forçar as empresas de tecnologia a escanear os serviços de nuvem e de mensagens em busca de riscos materiais de abuso infantil “minando as proteções fundamentais de privacidade e segurança” e poderia levar a uma vigilância em massa com repercussões globais (…)

“A varredura de conteúdo específico abre a porta para a vigilância em massa de comunicações e sistemas de armazenamento que contêm dados relativos aos assuntos mais privados de muitos australianos”, disse Apple.

“Essas capacidades, mostra a história, inevitavelmente se expandirão para outros tipos de conteúdo (como imagens, vídeos, texto ou áudio) e categorias de conteúdo.”

A Apple disse que essas ferramentas de vigilância podem ser reconfiguradas para procurar outros conteúdos, como atividades políticas, religiosas, de saúde, sexuais ou reprodutivas de uma pessoa.

O governo afirma que ouviu “muitos comentários positivos” da Apple e de outros e que “incorporará o que pudermos” em uma versão revisada do plano.

foto por VoarD sobre Remover respingo

FTC: Usamos links de afiliados automotivos para geração de renda. Mais.



Source link

Related Articles

Deixe um comentário