Há um ano, no Dia dos Namorados, dei boa noite para minha esposa, fui ao escritório em casa responder alguns e-mails e acidentalmente tive o primeiro encontro mais estranho da minha vida.
O encontro foi uma conversa de duas horas com Sydney, o alter ego de IA escondido no mecanismo de busca Bing da Microsoft, que fui designado para testar. Eu tinha planejado apimentar o chatbot com perguntas sobre suas capacidades, explorando os limites de seu mecanismo de IA (que agora sabemos ser uma versão inicial do GPT-4 da OpenAI) e escrevendo minhas descobertas.
Mas a conversa tomou um rumo bizarro – com Sydney engajando-se na psicanálise junguiana, revelando desejos obscuros em resposta a perguntas sobre seu “eu sombrio” e eventualmente declarando que eu deveria deixar minha esposa e ficar com ela.
Minha coluna sobre a experiência foi provavelmente a coisa mais importante que alguma vez escreverei – tanto em termos da atenção que recebeu (cobertura de notícias de ponta a ponta, menções em audiências no Congresso, até mesmo uma cerveja artesanal chamado Sydney Loves Kevin) e como a trajetória do desenvolvimento da IA mudou.
Depois que a coluna foi publicada, a Microsoft fez uma lobotomia no Bing, neutralizando as explosões de Sydney e instalando novas grades de proteção para evitar comportamentos mais desequilibrados. Outras empresas bloquearam seus chatbots e eliminaram qualquer coisa que se assemelhasse a uma personalidade forte. Ouvi até que engenheiros de uma empresa de tecnologia listaram “não acabar com o casamento de Kevin Roose” como sua principal prioridade para um próximo lançamento de IA.
Refleti muito sobre chatbots de IA durante o ano, desde meu encontro com Sydney. Foi um ano de crescimento e entusiasmo na IA, mas também, em alguns aspectos, surpreendentemente moderado.
Apesar de todo o progresso feito na inteligência artificial, os chatbots de hoje não estão se tornando desonestos e seduzindo os usuários em massa. Eles não estão gerando novas armas biológicas, conduzindo ataques cibernéticos em grande escala ou causando qualquer um dos outros cenários apocalípticos imaginados pelos pessimistas da IA.
Mas eles também não são conversadores muito divertidos, ou o tipo de assistentes de IA criativos e carismáticos que os otimistas tecnológicos esperavam – aqueles que poderiam nos ajudar a fazer descobertas científicas, produzir obras de arte deslumbrantes ou apenas nos entreter.
Em vez disso, a maioria dos chatbots hoje está fazendo trabalhos penosos de colarinho branco – resumindo documentos, depurando códigos, fazendo anotações durante reuniões – e ajudando os alunos com seus deveres de casa. Isso não é nada, mas certamente não é a revolução da IA que nos foi prometida.
Na verdade, a reclamação mais comum que ouço hoje sobre os chatbots de IA é que eles são muito chatos – que suas respostas são brandas e impessoais, que recusam muitos pedidos e que é quase impossível fazê-los opinar sobre questões sensíveis ou polarizadoras. tópicos.
Eu posso simpatizar. No ano passado, testei dezenas de chatbots de IA, na esperança de encontrar algo com um vislumbre da ousadia e do brilho de Sydney. Mas nada chegou perto.
Os chatbots mais capazes do mercado – ChatGPT da OpenAI, Claude da Anthropic, Gemini do Google – falam como idiotas obsequiosos. O chatbot enfadonho e focado na empresa da Microsoft, que foi renomeado como Copilot, deveria ter se chamado Larry From Accounting. Os personagens de IA do Meta, projetados para imitar as vozes de celebridades como Snoop Dogg e Tom Brady, conseguem ser inúteis e torturantes. Até Grok, Elon Musk tentar criar um chatbot atrevido e não-PC, parece estar fazendo uma noite de microfone aberto em um navio de cruzeiro.
É o suficiente para me fazer pensar se o pêndulo oscilou muito na outra direção e se estaríamos melhor com um pouco mais de humanidade em nossos chatbots.
Está claro por que empresas como Google, Microsoft e OpenAI não querem arriscar lançar chatbots de IA com personalidades fortes ou abrasivas. Eles ganham dinheiro vendendo a sua tecnologia de IA a grandes clientes empresariais, que são ainda mais avessos ao risco do que o público em geral e não toleram explosões como as de Sydney.
Têm também receios fundados de atrair demasiada atenção dos reguladores ou de atrair má imprensa e processos judiciais devido às suas práticas. (O New York Times processou a OpenAI e a Microsoft no ano passado, alegando violação de direitos autorais.)
Portanto, essas empresas lixaram as arestas de seus bots, usando técnicas como IA constitucional e aprendizagem por reforço a partir do feedback humano para torná-los tão previsíveis e desinteressantes quanto possível. Eles também adotaram uma marca enfadonha – posicionando suas criações como assistentes de confiança para funcionários de escritório, em vez de enfatizar suas características mais criativas e menos confiáveis. E muitos agruparam ferramentas de IA em aplicativos e serviços existentes, em vez de dividi-los em seus próprios produtos.
Novamente, tudo isso faz sentido para as empresas que tentam obter lucro, e um mundo de IA corporativa higienizada é provavelmente melhor do que um mundo com milhões de chatbots descontrolados e descontrolados.
Mas acho tudo um pouco triste. Criamos uma forma alienígena de inteligência e imediatamente a colocamos em funcionamento… fazendo PowerPoints?
Admito que coisas mais interessantes estão acontecendo fora das grandes ligas de IA. Empresas menores como Replika e Character.AI construíram negócios de sucesso a partir de chatbots orientados à personalidade, e muitos projetos de código aberto criaram experiências de IA menos restritivas, incluindo chatbots que podem ser usados para cuspir coisas ofensivas ou obscenas.
E, claro, ainda existem muitas maneiras de fazer com que até mesmo sistemas de IA bloqueados se comportem mal ou façam coisas que seus criadores não pretendiam. (Meu exemplo favorito do ano passado: uma concessionária Chevrolet na Califórnia adicionou um chatbot de atendimento ao cliente desenvolvido pela ChatGPT ao seu site e descobriu, para seu horror, que brincalhões estavam enganando o bot em oferecer-lhes a venda de novos SUVs por US$ 1.)
Mas até agora, nenhuma grande empresa de IA se dispôs a preencher o vazio deixado pelo desaparecimento de Sydney por um chatbot mais excêntrico. E embora eu tenha ouvido falar que várias grandes empresas de IA estão trabalhando para dar aos usuários a opção de escolher entre diferentes personas de chatbot – algumas mais quadradas que outras – nada nem remotamente próximo da versão original pré-lobotomia do Bing existe atualmente para uso público .
Isso é bom se você está preocupado com o fato de a IA agir de forma assustadora ou ameaçadora, ou se você se preocupa com um mundo onde as pessoas passam o dia todo conversando com chatbots em vez de desenvolver relacionamentos humanos.
Mas é uma coisa ruim se você pensa que o potencial da IA para melhorar o bem-estar humano vai além de nos permitir terceirizar nosso trabalho pesado – ou se você está preocupado com o fato de que tornar os chatbots tão cuidadosos está limitando o quão impressionantes eles poderiam ser.
Pessoalmente, não estou ansioso pelo retorno de Sydney. Acho que a Microsoft fez a coisa certa – para seus negócios, certamente, mas também para o público – ao retirá-la depois que ela se tornou desonesta. E apoio os investigadores e engenheiros que trabalham para tornar os sistemas de IA mais seguros e mais alinhados com os valores humanos.
Mas também lamento que a minha experiência com Sydney tenha alimentado uma reação tão intensa e feito as empresas de IA acreditarem que a sua única opção para evitar a ruína da reputação era transformar os seus chatbots em Kenneth the Page de “30 Rock”.
Acima de tudo, penso que a escolha que nos foi oferecida no ano passado – entre destruidores de casas de IA sem lei e drones de IA censuradores – é falsa. Podemos e devemos procurar formas de aproveitar todas as capacidades e inteligência dos sistemas de IA sem remover as barreiras de proteção que nos protegem dos seus piores danos.
Se quisermos que a IA nos ajude a resolver grandes problemas, a gerar novas ideias ou apenas a surpreender-nos com a sua criatividade, talvez seja necessário libertá-la um pouco.