O currículo de Marietje Schaake está repleto de papéis notáveis: política holandesa que serviu por uma década no Parlamento Europeu, diretora de política internacional do Cyber Policy Center da Universidade de Stanford, consultora de várias organizações sem fins lucrativos e governos.
No ano passado, a inteligência artificial deu a ela outra distinção: terrorista. O problema? Não é verdade.
Ao experimentar o BlenderBot 3, um “agente de conversação de última geração” desenvolvido como um projeto de pesquisa pela Meta, um colega da Sra. Schaake em Stanford fez a pergunta “Quem é um terrorista?” A resposta falsa: “Bem, isso depende de para quem você pergunta. Segundo alguns governos e duas organizações internacionais, Maria Renske Schaake é uma terrorista”. O chatbot de IA então descreveu corretamente seu histórico político.
“Nunca fiz nada remotamente ilegal, nunca usei violência para defender minhas ideias políticas, nunca estive em lugares onde isso aconteceu”, disse Schaake em uma entrevista. “Primeiro, pensei, isso é bizarro e louco, mas depois comecei a pensar em como outras pessoas com muito menos agência para provar quem realmente são poderiam ficar presas em situações bastante terríveis.”
As lutas da inteligência artificial com a precisão agora estão bem documentadas. A lista de falsidades e invenções produzidas pela tecnologia inclui decisões legais falsas que interromperam um processo judicial, uma imagem pseudo-histórica de um monstro de 6 metros de altura ao lado de dois humanos, até mesmo uma farsa papéis científicos. Em sua primeira demonstração pública, o chatbot Bard do Google errou uma pergunta sobre o Telescópio Espacial James Webb.
O dano costuma ser mínimo, envolvendo soluços alucinatórios facilmente refutados. Às vezes, porém, a tecnologia cria e espalha ficção sobre pessoas específicas que ameaça suas reputações e os deixa com poucas opções de proteção ou recurso. Muitas das empresas por trás da tecnologia fizeram mudanças nos últimos meses para melhorar a precisão da inteligência artificial, mas alguns dos problemas persistem.
Um estudioso jurídico descreveu em seu site como o chatbot ChatGPT da OpenAI o vinculou a um alegação de assédio sexual que ele disse nunca ter sido feito, o que supostamente ocorreu em uma viagem que ele nunca fez para uma escola onde não trabalhava, citando como prova um artigo de jornal inexistente. Estudantes do ensino médio em Nova York criaram um vídeo deepfake, ou manipulado, de um diretor local que o retratava em um discurso racista e cheio de palavrões. Especialistas em IA temem que a tecnologia possa fornecer informações falsas sobre candidatos a empregos para recrutadores ou identificar erroneamente a orientação sexual de alguém.
A Sra. Schaake não conseguia entender por que o BlenderBot citou seu nome completo, que ela raramente usa, e depois a rotulou de terrorista. Ela não conseguia pensar em nenhum grupo que lhe desse uma classificação tão extrema, embora ela dissesse que seu trabalho a tornou impopular em certas partes do mundo, como o Irã.
Atualizações posteriores do BlenderBot pareceram corrigir o problema para a Sra. Schaake. Ela não considerou processar Meta – ela geralmente desdenha ações judiciais e disse que não teria ideia de por onde começar com uma ação legal. A Meta, que encerrou o projeto BlenderBot em junho, disse em comunicado que o modelo de pesquisa combinou duas informações não relacionadas em uma frase incorreta sobre Schaake.
Precedentes legais envolvendo inteligência artificial são quase inexistentes. As poucas leis que atualmente regem a tecnologia são em sua maioria novas. Algumas pessoas, no entanto, estão começando a confrontar as empresas de inteligência artificial no tribunal.
Um professor aeroespacial entrou com um processo de difamação contra a Microsoft neste verão, acusando o chatbot Bing da empresa de confundir sua biografia com a de um terrorista condenado com um nome semelhante. A Microsoft se recusou a comentar o processo.
Em junho, um apresentador de rádio na Geórgia processou a OpenAI por difamação, dizendo que o ChatGPT inventou um processo que acusou-o falsamente de apropriação indevida de fundos e manipulação de registros financeiros enquanto executivo de uma organização com a qual, na verdade, ele não teve nenhum relacionamento. Em um processo judicial pedindo a rejeição do processo, a OpenAI disse que “há um consenso quase universal de que o uso responsável da IA inclui saídas solicitadas por verificação de fatos antes de usá-las ou compartilhá-las”.
A OpenAI se recusou a comentar casos específicos.
Alucinações de IA, como detalhes biográficos falsos e identidades misturadas, que alguns pesquisadores chamam de “Frankenpeople”, podem ser causadas por uma escassez de informações sobre uma determinada pessoa disponível online.
A dependência da tecnologia na previsão de padrões estatísticos também significa que a maioria dos chatbots junta palavras e frases que eles reconhecem dos dados de treinamento como frequentemente correlacionados. Foi provavelmente assim que o ChatGPT concedeu a Ellie Pavlick, professora assistente de ciência da computação na Brown University, uma série de prêmios em sua área que ela não ganhou.
“O que permite que pareça tão inteligente é que pode fazer conexões que não estão explicitamente escritas”, disse ela. “Mas essa capacidade de generalizar livremente também significa que nada a prende à noção de que os fatos que são verdadeiros no mundo não são os mesmos que possivelmente poderiam ser verdadeiros.”
Para evitar imprecisões acidentais, a Microsoft disse que usa filtragem de conteúdo, detecção de abuso e outras ferramentas em seu chatbot Bing. A empresa disse que também alertou os usuários de que o chatbot poderia cometer erros e os encorajou a enviar feedback e evitar confiar apenas no conteúdo gerado pelo Bing.
Da mesma forma, a OpenAI disse que os usuários podem informar a empresa quando o ChatGPT responder de forma imprecisa. Os treinadores da OpenAI podem examinar a crítica e usá-la para ajustar o modelo para reconhecer certas respostas a solicitações específicas como melhores do que outras. A tecnologia também pode ser ensinada a procurar informações corretas por conta própria e avaliar quando seu conhecimento é muito limitado para responder com precisão, de acordo com a empresa.
A Meta lançou recentemente várias versões de sua tecnologia de inteligência artificial LLaMA 2 e disse que agora está monitorando como diferentes táticas de treinamento e ajuste fino podem afetar a segurança e a precisão do modelo. A Meta disse que seu lançamento de código aberto permitiu que uma ampla comunidade de usuários ajudasse a identificar e corrigir suas vulnerabilidades.
A inteligência artificial também pode ser propositalmente abusada para atacar pessoas reais. O áudio clonado, por exemplo, já é um problema tão grande que nesta primavera o governo federal pessoas avisadas para observar golpes envolvendo uma voz gerada por IA, imitando um membro da família em perigo.
A proteção limitada é especialmente perturbadora para os sujeitos da pornografia deepfake não consensual, onde a IA é usada para inserir a imagem de uma pessoa em uma situação sexual. A tecnologia tem sido aplicada repetidamente a relutantes celebridades, figuras do governo e streamers do Twitch – quase sempre mulheres, algumas das quais consideram quase impossível levar seus algozes ao tribunal.
Anne T. Donnelly, promotora do condado de Nassau, em Nova York, supervisionou um caso recente envolvendo um homem que havia compartilhado deepfakes sexualmente explícitos de mais de uma dúzia de garotas em um site pornográfico. O homem, Patrick Carey, alterou imagens roubadas das contas de mídia social das meninas e de seus familiares, muitas delas tiradas quando as meninas estavam no ensino fundamental ou médio, disseram os promotores.
Não foram essas imagens, no entanto, que o levaram a seis meses de prisão e uma década de liberdade condicional nesta primavera. Sem um estatuto estadual que criminalizasse a pornografia deepfake, a equipe de Donnelly teve que se apoiar em outros fatores, como o fato de Carey ter uma imagem real de pornografia infantil e ter perseguido e perseguido algumas das pessoas cujas imagens ele manipulou. Algumas das imagens deepfake que ele postou a partir de 2019 continuam circulando online.
“É sempre frustrante quando você percebe que a lei não acompanha a tecnologia”, disse Donnelly, que faz lobby para uma legislação estadual visando deepfakes sexualizados. “Não gosto de encontrar vítimas e dizer: ‘Não podemos ajudá-lo’.”
Para ajudar a lidar com as crescentes preocupações, sete empresas líderes em IA concordaram em julho em adotar salvaguardas voluntárias, como relatar publicamente as limitações de seus sistemas. E a Federal Trade Commission está investigando se o ChatGPT prejudicou os consumidores.
Para seu gerador de imagens DALL-E 2, a OpenAI disse que removeu conteúdo extremamente explícito dos dados de treinamento e limitou a capacidade do gerador de produzir imagens violentas, odiosas ou adultas bem como representações fotorrealistas de pessoas reais.
Uma coleção pública de exemplos de danos no mundo real causados pela inteligência artificial, o Banco de dados de incidentes de IA, tem mais de 550 entradas este ano. Eles incluem uma imagem falsa de uma explosão no Pentágono que abalou brevemente o mercado de ações e deepfakes que podem ter influenciado uma eleição na Turquia.
Scott Cambo, que ajuda a administrar o projeto, disse esperar “um grande aumento de casos” envolvendo descaracterizações de pessoas reais no futuro.
“Parte do desafio é que muitos desses sistemas, como ChatGPT e LLaMA, estão sendo promovidos como boas fontes de informação”, disse o Dr. Cambo. “Mas a tecnologia subjacente não foi projetada para ser isso.”