A Zoom, a plataforma de comunicação virtual que milhões usam para trabalho remoto, está enfrentando uma reação negativa devido a uma política atualizada que permite treinar seus produtos de IA com base em dados de clientes extraídos de reuniões. Mas os especialistas dizem que este não é um caso isolado – é um sinal de como as grandes empresas de tecnologia planejam coletar e alavancar suas informações pessoais daqui para frente.
A alteração nos termos e condições da Zoom – feita discretamente em março – concede à empresa “licença perpétua, mundial, não exclusiva, isenta de royalties, sublicenciável e transferível e todos os outros direitos” ao seu conteúdo, para fins de “aprendizado de máquina , inteligência artificial, treinamento, teste” e outros projetos. Como os relatórios desta semana chamaram mais atenção para as condições modificadas, assistência médica, Educação e entretenimento os profissionais chamaram a política expandida de invasão de privacidade.
Em resposta, o CEO da Zoom, Eric Yuan, admitiu na terça-feira que a linguagem da nova política foi o resultado de um “falha de processo.” No dia anterior, a empresa havia publicado um postagem no blog reconhecendo os termos atualizados e tentou assegurar aos clientes que eles teriam os meios para cancelar tal coleta de dados. Mas, realisticamente, se você for um participante da reunião na qual o organizador habilitou o recurso Zoom IQ (um “companheiro inteligente AI” também lançado em março), suas opções são desligar ou aceitar que suas informações da chamada serão ser salvo pela empresa.
Outra atualização de seus termos e condições, que Zoom adicionou na segunda-feira sob pressão pública, afirma que a empresa “não usará áudio, vídeo ou conteúdo de cliente de bate-papo para treinar nossos modelos de inteligência artificial sem o seu consentimento” – embora também diga que o Zoom se reserva o direito de fazer exatamente isso. Como Gizmodo pontos fora, isso não é muito reconfortante dado o anterior de Zoom falhas de privacidade e segurança.
Mas, sejam quais forem as consequências do Zoom, eles não serão o último gigante da tecnologia a treinar novos produtos de IA sobre o comportamento do usuário – com ou sem o conhecimento dos usuários. Segundo pesquisadores de IA, esta é apenas a próxima fase de um processo que já está difundido pela internet.
“O conceito de plataformas e dispositivos de tecnologia que coletam e analisam seus dados não é novidade”, diz Azadeh Williams, que faz parte do conselho executivo do Global AI Ethics Institute. “Plataformas e aplicativos de mídia social fazem isso há anos.” Assim como o Facebook permitiu desenvolvedores terceirizados para coletar informações pessoais, e o Google rastreou ilegalmente a localização de usuários do Androidos principais players do Vale do Silício agora estão preparados para aproveitar seu conteúdo para acelerar o desenvolvimento da inteligência artificial.
Nate Sharadin, pesquisador do Center for AI Safety, sem fins lucrativos, diz que a controvérsia sobre os termos do Zoom é um “indicador” para essa tecnologia. Se eles encontraram resistência no momento, é em parte porque as indústrias criativas, como cinema e TV, estão cada vez mais cautelosas sobre como as empresas concorrentes podem alavancar sua propriedade intelectual para treinar, por exemplo, “modelos generativos de aprendizado de máquina que podem superá-los em espaços particulares”, diz ele. À medida que esses modelos avançam, fica mais difícil detectar material roubado ou reaproveitado, o que também é mais fácil do que nunca produzir em escala.
No entanto, a Zoom e outras empresas de tecnologia estão se esforçando para sugar o máximo de informações disponíveis, porque os desenvolvedores de IA “vêem uma escassez de dados de alta qualidade” nas próximas décadas, diz Sharadin – uma espécie de gargalo informacional isso retardará o progresso dos modelos de aprendizado de máquina. “As empresas costumavam coletar dados, mas não sabem o que fazer com eles”, acrescenta. “Agora, há algo (lucrativo) que eles podem fazer: vendê-lo para desenvolvedores de modelos ou para curadores de dados.”
Ari Lightman, professor de mídia digital no Heinz College da Carnegie Mellon University, diz que o declínio do trabalho remoto deixou o Zoom e seus rivais buscando maneiras de tornar as reuniões online “mais produtivas e eficientes”, e é por isso que as soluções de IA os atraem. Embora ele também observe que a coleta excessiva de dados por empresas de tecnologia é um problema familiar, desencadeando uma série de ações judiciais no passado, a IA gerou “mais ceticismo sobre como esses dados serão usados de maneira a não infringir a privacidade dos usuários. ” De repente, as pessoas que sempre deram permissão ao software para rastrear o comportamento estão conscientes do tipo de juridiquês que assinam para usar um programa. Claro, práticas ainda mais invasivas podem ser normalizadas com o tempo.
“Este é um exemplo do mercado que faz com que a IA prolifere contra a vontade de muitas pessoas”, diz Dan Hendrycks, diretor executivo do Center for AI Safety. Ele vê isso como parte da integração insidiosa da vigilância mecânica em nossas rotinas comuns. “É por meio de muitos pequenos passos como esse que a IA acabará permeando todos os aspectos da vida, e os humanos estarão sujeitos a suas decisões e supervisão constante.”
Vincent Conitzer, chefe de envolvimento técnico em IA no Instituto de Ética em IA da Universidade de Oxford e diretor do Foundations of Cooperative AI Lab na Carnegie Mellon University, observa que gigantes da tecnologia, incluindo Amazon e Microsoft, já avisou os funcionários não compartilhem informações internas confidenciais com ferramentas de IA, como o ChatGPT, por medo de que o material confidencial possa vazar. Se eles estão preocupados com o fato de a IA de um concorrente ter um vislumbre de seus segredos corporativos, é lógico que os usuários finais comuns sejam vulneráveis à mesma exposição.
“Devemos agora estar tão preocupados em compartilhar informações confidenciais com nossos colegas nas reuniões do Zoom?” Conitzer pergunta. “Neste ponto, se algo é falado durante uma reunião ou escrito em uma janela de bate-papo, faz pouca diferença, considerando o quão boa a transcrição da IA se tornou. Na verdade, há mais informações na frase falada, na forma de entonação e, se a câmera estiver ligada, expressões faciais.”
Para o Zoom, diz ele, os aplicativos em potencial parecem inofensivos. Ele teoriza que eles poderiam “usar esses dados para ensinar a IA a prever quem será a próxima pessoa a falar em uma reunião em andamento, para que essa pessoa possa ser destacada na tela”, o que “não parece tão ruim”. Exceto que o Zoom – e todos os outros no mercado – agora são incentivados a acumular o máximo de informações possível, “e uma vez que você tenha todos esses dados, é sempre tentador tentar fazer mais coisas com eles”, diz Conitzer. “Enquanto isso, os sistemas de IA de hoje são muito capazes de lembrar e, em seguida, vazar seus dados de treinamento.”
Lightman concorda que o Zoom provavelmente se concentrará em como a IA pode melhorar a eficiência, a personalização e a automação no local de trabalho – métodos de combate à “fadiga do zoom”. Mas, ao buscar essas melhorias por meio do aprendizado de máquina, as empresas de tecnologia podem deixar suas comunicações vulneráveis a uma violação. “A questão é: o valor supera o risco e realmente sabemos o que o risco envolve?” ele pergunta.
Williams concorda com essa ideia de uma faca de dois gumes, dizendo que as empresas de tecnologia com o objetivo de “aprimorar o produto” e fornecer “serviço simplificado” acabam coletando dados confidenciais que “também podem ser hackeados e entregues às mãos erradas”. No final, diz Williams, o ônus da segurança continua a recair sobre os usuários, e não sobre as corporações que analisam nossas entradas e comportamentos. “À medida que consumidores individuais e profissionais se tornam mais conscientes do valor de seus dados e de como eles estão sendo usados quando os ‘trocam’”, diz ela, “é importante educar-se sobre como ‘dizer não’, ‘discordar’ ou ‘optar por não participar’ quando não quiser compartilhar seus dados.”
Claro, como demonstra o furor sobre as condições atuais do Zoom, as empresas por trás dos produtos digitais nos quais você confia na vida cotidiana sabem que pode ser difícil para as pessoas dizerem não. Isso é particularmente verdadeiro no trabalho, quando a política de gestão pode favorecer a opção de treinamento em IA em plataformas digitais para acesso a recursos de ponta. Se você não gostar, não há garantia de que você pode simplesmente desligar. Na pior das hipóteses, você terá que encontrar outro emprego.