Essas preocupações são parte da razão pela qual a OpenAI disse em janeiro que proibiria as pessoas de usarem sua tecnologia para criar chatbots que imitassem candidatos políticos ou fornecessem informações falsas relacionadas à votação. A empresa também disse que não permitiria que pessoas criassem aplicativos para campanhas políticas ou lobby.
Embora a página do chatbot Kennedy não divulgue o modelo subjacente que o alimenta, o código-fonte do site conecta esse bot ao LiveChatAI, uma empresa que anuncia sua capacidade de fornecer chatbots de suporte ao cliente com tecnologia GPT-4 e GPT-3.5 para empresas. O site do LiveChatAI descreve seus bots como “aproveitando os recursos do ChatGPT”.
Quando questionado sobre qual grande modelo de linguagem alimenta o bot da campanha Kennedy, o cofundador do LiveChatAI, Emre Elbeyoglu, disse em um comunicado enviado por e-mail na quinta-feira que a plataforma “utiliza uma variedade de tecnologias como Llama e Mistral”, além de GPT-3.5 e GPT-4. “Não podemos confirmar ou negar as especificidades do uso de qualquer cliente devido ao nosso compromisso com a confidencialidade do cliente”, disse Elbeyoglu.
O porta-voz da OpenAI, Niko Felix, disse à WIRED na quinta-feira que a empresa “não tinha nenhuma indicação” de que o chatbot da campanha Kennedy estava sendo construído diretamente em seus serviços, mas sugeriu que o LiveChatAI poderia estar usando um de seus modelos por meio dos serviços da Microsoft. Desde 2019, a Microsoft tem supostamente investiu mais de US$ 13 bilhões em OpenAI. Os modelos ChatGPT da OpenAI foram integrados ao mecanismo de busca Bing da Microsoft e ao Copiloto do Office 365 da empresa.
Na sexta-feira, um porta-voz da Microsoft confirmou que o chatbot Kennedy “aproveita os recursos do Microsoft Azure OpenAI Service”. A Microsoft disse que seus clientes não estavam sujeitos aos termos de serviço da OpenAI e que o chatbot Kennedy não violava as políticas da Microsoft.
“Nossos testes limitados deste chatbot demonstram sua capacidade de gerar respostas que refletem o contexto pretendido, com advertências apropriadas para ajudar a prevenir a desinformação”, disse o porta-voz. “Onde encontramos problemas, interagimos com os clientes para entendê-los e orientá-los para usos que sejam consistentes com esses princípios e, em alguns cenários, isso pode nos levar à descontinuação do acesso de um cliente à nossa tecnologia.”
A OpenAI não respondeu imediatamente a um pedido de comentário da WIRED sobre se o bot violou suas regras. No início deste ano, a empresa bloqueou o desenvolvedor do Dean.bot, um chatbot baseado nos modelos da OpenAI que imitava o candidato presidencial democrata Dean Phillips e fornecia respostas às perguntas dos eleitores.
No final da tarde de domingo, o serviço de chatbot não estava mais disponível. Embora a página permaneça acessível no site da campanha Kennedy, a janela do chatbot incorporada agora mostra um ícone de ponto de exclamação vermelho e simplesmente diz “Chatbot não encontrado”. A WIRED entrou em contato com a Microsoft, OpenAI, LiveChatAI e a campanha Kennedy para comentar a aparente remoção do chatbot, mas não recebeu uma resposta imediata.
Dada a propensão dos chatbots para alucinar e soluçar, a sua utilização em contextos políticos tem sido controversa. Atualmente, a OpenAI é o único grande modelo de linguagem que proíbe explicitamente seu uso em campanhas; Meta, Microsoft, Google e Mistral têm termos de serviço, mas não abordam política diretamente. E dado que uma campanha aparentemente pode acessar GPT-3.5 e GPT-4 através de terceiros sem consequências, quase não há limitações.
“A OpenAI pode dizer que não permite o uso eleitoral de suas ferramentas ou o uso de suas ferramentas em campanha, por um lado”, disse Woolley. “Mas, por outro lado, também está disponibilizando essas ferramentas de forma bastante gratuita. Dada a natureza distribuída desta tecnologia, é de se perguntar como a OpenAI irá realmente aplicar as suas próprias políticas.”