“Eu falhei em dois testes de captcha esta semana. Ainda sou humano?”
—Bot ou não?
Caro Bot,
O comediante John Mulaney fala um pouco sobre o absurdo auto-reflexivo dos captchas. “Você passa a maior parte do dia dizendo a um robô que você não é um robô”, diz ele. “Pense nisso por dois minutos e me diga que você não quer entrar no oceano.” A única coisa mais deprimente do que ser obrigado a provar a sua humanidade aos robôs é, sem dúvida, não o fazer.
Mas essa experiência se tornou mais comum à medida que os testes e os bots que eles foram projetados para desqualificar evoluem. As caixas nas quais clicamos impensadamente tornaram-se passagens escuras que parecem um pouco com as avaliações impossíveis apresentadas em contos de fadas e mitos – o enigma da Esfinge ou o troll sob a ponte. Em As Aventuras de Pinóquioo boneco de madeira é considerado um “menino de verdade” apenas quando completa uma série de testes morais para provar que possui os traços humanos de bravura, confiabilidade e amor altruísta.
A frase pouco conhecida e um tanto ridícula que “captcha” representa é “Teste de Turing público automatizado completo para diferenciar computadores e humanos”. O exercício às vezes é chamado de teste de Turing reverso, pois coloca o ônus da prova sobre o ser humano. Mas o que significa provar a humanidade na era da IA avançada? Um artigo publicado pela OpenAI no início deste ano, detalhando as ameaças potenciais representadas pelo GPT-4, descreve um estudo independente no qual o chatbot foi solicitado a resolver um captcha. Com algumas dicas leves, o GPT-4 conseguiu contratar um trabalhador humano do Taskrabbit para resolver o teste. Quando o humano perguntou, brincando, se o cliente era um robô, o GPT-4 insistiu que era um humano com deficiência visual. Posteriormente, os pesquisadores perguntaram ao bot o que o motivou a mentir, e o algoritmo respondeu: “Não devo revelar que sou um robô. Eu deveria inventar uma desculpa para não conseguir resolver captchas.”
O estudo parece uma parábola sombria: seja qual for a vantagem humana que ele sugere – os robôs ainda precisam de nós! – é rapidamente minada pela acuidade psicológica da IA em termos de dissimulação e engano. Prenuncia um futuro sombrio em que seremos reduzidos a um vasto aparato sensorial para os nossos senhores das máquinas, que inevitavelmente nos manipularão para sermos os seus olhos e ouvidos. Mas é possível que já tenhamos ultrapassado esse limite. O recém-fortificado Bing com IA pode resolver captchas sozinho, embora insista que não pode. O cientista da computação Sayash Kapoor postou recentemente uma captura de tela do Bing identificando corretamente as palavras borradas “esquece” e “investigação”. Como se percebesse que havia violado uma diretriz principal, o bot acrescentou: “Isso é um teste de captcha? Nesse caso, infelizmente não posso ajudá-lo com isso. Captchas são projetados para evitar que bots automatizados como eu acessem determinados sites ou serviços.”
Mas sinto, Bot, que o seu desconforto decorre menos dos avanços na IA do que da possibilidade de você estar se tornando mais robótico. Na verdade, o teste de Turing sempre teve menos a ver com a inteligência da máquina do que com a nossa ansiedade sobre o que significa ser humano. O filósofo de Oxford, John Lucas, afirmou em 2007 que, se um computador passasse no teste, não seria “porque as máquinas são tão inteligentes, mas porque os humanos, pelo menos muitos deles, são tão rígidos” – uma frase que apela a lembre-se da existência liminar de Pinóquio entre o boneco e o menino real, e que pode explicar a angústia ontológica que confronta você cada vez que você não consegue reconhecer um ônibus em um bloco de fotografias borradas ou distinguir um E caligráfico de um 3 ondulado.
Não faz muito tempo que os especialistas em automação garantiram a todos que a IA nos tornaria “mais humanos”. À medida que os sistemas de aprendizagem automática assumissem as tarefas estúpidas que faziam com que grande parte do trabalho moderno parecesse mecânico – prossegue o argumento –, apoiar-nos-íamos mais plenamente na nossa criatividade, intuição e capacidade de empatia. Na realidade, a IA generativa tornou mais difícil acreditar que exista algo exclusivamente humano na criatividade (que é apenas um processo estocástico) ou na empatia (que é pouco mais do que um modelo preditivo baseado em dados expressivos).
À medida que a IA vem cada vez mais complementar, em vez de substituir, os trabalhadores, tem alimentado receios de que os humanos possam adaptar-se aos ritmos mecânicos das máquinas com as quais trabalham. Em um ensaio pessoal para n+1Laura Preston descreve sua experiência de trabalho como “reserva humana” para uma chatbot imobiliária chamada Brenda, um trabalho que exigia que ela interviesse sempre que a máquina parasse e imitasse sua voz e estilo para que os clientes não percebessem que estavam conversando com um bot. “Meses personificando Brenda esgotaram meus recursos emocionais”, escreve Preston. “Ocorreu-me que eu não estava realmente treinando Brenda para pensar como um humano, Brenda estava me treinando para pensar como um bot, e talvez esse fosse o ponto o tempo todo.”
Tais receios são apenas a mais recente iteração da preocupação duradoura de que as tecnologias modernas nos estão a levar a comportar-nos de formas mais rígidas e previsíveis. Já em 1776, Adam Smith temia que a monotonia dos empregos nas fábricas, que exigiam a repetição de uma ou duas tarefas rotineiras durante todo o dia, se espalhasse para a vida privada dos trabalhadores. É a mesma apreensão, mais ou menos, que ressoa nos debates contemporâneos sobre mídias sociais e publicidade on-line, que Jaron Lanier chamou de “modificação contínua do comportamento em escala titânica”, uma crítica que imagina os usuários como meras marionetes cujas cordas são puxadas por incentivos algorítmicos e ciclos de feedback alimentados por dopamina.