O aplicativo Fotos da Apple emprega vários recursos para ajudá-lo a encontrar imagens em sua biblioteca e aprender mais sobre o que é mostrado nessas imagens. Um desses recursos é chamado de Pesquisa Visual Aprimorada. Veja como funciona e como a Apple protege sua privacidade quando você o usa.
Pesquisa visual versus pesquisa visual aprimorada
Uma distinção importante a fazer é como a Pesquisa Visual Aprimorada difere do recurso Visual Look Up da Apple. O Visual Look Up foi introduzido como parte do iOS 15 e permite aos usuários identificar objetos, pontos de referência, plantas e muito mais no aplicativo Fotos.
Por exemplo, você pode deslizar para cima em uma imagem no aplicativo Fotos para saber qual raça de cachorro é mostrada na imagem. Ele pode até reconhecer coisas como instruções sobre cuidados com a roupa em suas roupas e o que significam aqueles símbolos aleatórios no painel do seu carro.
A Pesquisa Visual Aprimorada existe separadamente da Pesquisa Visual. Enquanto o Visual Look Up ajuda a encontrar detalhes de uma única foto que você já está vendo, o Enhanced Visual Search ajuda a encontrar todos as fotos da sua biblioteca quando você pesquisa um ponto de referência ou lugar. O recurso funciona mesmo quando essas fotos não possuem dados de geolocalização.
Por exemplo, você pode pesquisar “Golden Gate Bridge” em sua biblioteca e ver imagens relevantes de sua biblioteca. O recurso funciona até mesmo se o ponto de referência estiver desfocado e fora de foco no fundo de uma imagem.
Como a Pesquisa Visual Aprimorada protege sua privacidade?
No início deste mês, circularam manchetes sobre como a Pesquisa Visual Aprimorada envia suas informações de localização para a Apple para ajudar a encontrar esses pontos de referência e pontos de interesse. No aplicativo Configurações, a Apple diz: “Permita que este dispositivo combine lugares em suas fotos de forma privada com um índice global mantido pela Apple para que você possa pesquisar por quase qualquer ponto de interesse”.
Isto naturalmente levantou questões sobre as implicações de privacidade – particularmente com o recurso sendo opt-out em vez de opt-in.
A Apple, no entanto, possui um pipeline de privacidade bem elaborado que, segundo ela, protege seus dados quando a Pesquisa Visual Aprimorada entra em ação.
Esse processo começa com algo chamado criptografia homomórfica, que funciona assim:
- Seu iPhone criptografa uma consulta antes de enviá-la a um servidor.
- O servidor opera na consulta criptografada e gera uma resposta.
- Essa resposta é enviada de volta ao seu iPhone, onde é descriptografada.
É importante ressaltar que na implementação da Apple, apenas seus dispositivos possuem a chave de descriptografia, não o servidor. O servidor, portanto, não consegue descriptografar a solicitação original. A Apple usa criptografia homomórfica para vários recursos, incluindo Pesquisa Visual Aprimorada.
A Apple também emprega algo chamado pesquisa privada do vizinho mais próximo, ou PNNS, para pesquisa visual aprimorada. Este recurso permite que o dispositivo do usuário consulte de forma privada “um índice global de pontos de referência e pontos de interesse populares mantido pela Apple para encontrar correspondências aproximadas para lugares retratados em sua biblioteca de fotos”.
Aqui está o pipeline completo para uma solicitação de pesquisa visual aprimorada, conforme a Apple descreve em seu site de aprendizado de máquina:
- Um modelo de aprendizado de máquina no dispositivo analisa uma foto para determinar se existe uma “região de interesse”, ou ROI, que possa conter um ponto de referência.
- Se o modelo detectar um ROI, ele calcula uma “incorporação vetorial” para aquela parte da imagem.
- Essa incorporação de vetor é então criptografada e enviada para um banco de dados do servidor. A foto e os pixels não são enviados para a Apple, mas sim uma representação matemática daquela “região de interesse”.
- Apple usa privacidade diferencial combinado com relé OHTTPoperado por terceiros, para ocultar o endereço IP do dispositivo antes que a solicitação chegue aos servidores da Apple.
- O cliente também emite “consultas falsas junto com as reais, de modo que o servidor não consegue dizer quais são genuínas”. Além disso, as consultas são roteadas por meio de uma rede de anonimato para garantir que o servidor não possa vincular várias solicitações ao mesmo cliente.
- O servidor identifica a parte relevante dos embeddings e retorna os metadados correspondentes, como nomes de pontos de referência, para o dispositivo. O servidor não retém os dados depois que os resultados são retornados ao seu iPhone.
São muitas palavras e siglas, mas corroboram as afirmações da Apple de que a empresa não pode aprender nada sobre as informações em suas fotos.
Você pode desativar a Pesquisa Visual Aprimorada acessando o aplicativo Configurações, tocando em “Aplicativos” e depois em “Fotos”. Role para baixo e há uma alternância para Pesquisa visual aprimorada. A Apple diz que essa alternância deve ser usada principalmente em zonas com poucos dados.
Leitura adicional sobre Pesquisa Visual Aprimorada:
Siga a oportunidade: Tópicos, Céu Azul, Instagrame Mastodonte.