Home Economia Em defesa das alucinações de IA

Em defesa das alucinações de IA

Por Humberto Marchezini


Ninguém sabe se a inteligência artificial será uma bênção ou uma maldição num futuro distante. Mas neste momento há um desconforto e um desprezo quase universais por um hábito destes chatbots e agentes: as alucinações, aqueles factos inventados que aparecem nos resultados de grandes modelos de linguagem como o ChatGPT. No meio do que parece ser uma resposta cuidadosamente construída, o LLM irá introduzir algo que parece razoável, mas é uma invenção total. Seu chatbot típico pode fazer com que o ex-congressista George Santos se pareça com Abe Lincoln. Como parece inevitável que os chatbots um dia gerem a grande maioria de toda a prosa alguma vez escrita, todas as empresas de IA estão obcecadas em minimizar e eliminar alucinações, ou pelo menos em convencer o mundo de que o problema está em mãos.

Obviamente, o valor dos LLMs atingirá um novo nível quando e se as alucinações se aproximarem de zero. Mas antes que isso aconteça, peço-lhe que faça um brinde às confabulações da IA.

As alucinações me fascinam, embora os cientistas de IA tenham uma boa ideia de por que acontecem. Uma startup de IA chamada Vectara os estudou e sua prevalência, até mesmo compilando as taxas de alucinação de vários modelos quando solicitado a resumir um documento. (O GPT-4 da OpenAI se sai melhor, tendo alucinações apenas cerca de 3 por cento do tempo; o agora desatualizado Palm Chat do Google – não seu chatbot Bard! – teve uma taxa chocante de 27 por cento, embora, para ser justo, resumir documentos não estava na casa do leme do Palm Chat .) O CTO da Vectara, Amin Ahmad, diz que os LLMs criam uma representação compactada de todos os dados de treinamento alimentados por seus neurônios artificiais. “A natureza da compressão é que os pequenos detalhes podem se perder”, diz ele. Um modelo acaba preparado com as respostas mais prováveis ​​às dúvidas dos usuários, mas não tem os fatos exatos à sua disposição. “Quando chega aos detalhes, começa a inventar coisas”, diz ele.

Santosh Vempala, professor de ciência da computação na Georgia Tech, também estudou alucinações. “Um modelo linguístico é apenas um modelo probabilístico do mundo”, diz ele, e não um espelho verdadeiro da realidade. Vempala explica que a resposta de um LLM busca uma calibração geral com o mundo real – conforme representado em seus dados de treinamento – que é “uma versão fraca de precisão”. Sua pesquisapublicado com Adam Kalai da OpenAI, descobriu que as alucinações são inevitáveis ​​para fatos que não podem ser verificados usando as informações dos dados de treinamento de um modelo.

Essa é a ciência/matemática das alucinações de IA, mas elas também são notáveis ​​pela experiência que podem provocar em humanos. Por vezes, estas invenções generativas podem parecer mais plausíveis do que os factos reais, que são muitas vezes surpreendentemente bizarros e insatisfatórios. Quantas vezes você ouve algo descrito como tão estranho que nenhum roteirista ousaria fazer o roteiro de um filme? Hoje em dia, o tempo todo! As alucinações podem nos seduzir, parecendo nos prender a um mundo menos chocante do que aquele em que vivemos. Além do mais, acho revelador observar quais detalhes os bots tendem a inventar. Na sua tentativa desesperada de preencher as lacunas de uma narrativa satisfatória, gravitam em torno da versão estatisticamente mais provável da realidade, tal como representada nos seus dados de treino à escala da Internet, o que pode ser uma verdade em si. Comparo isso a um escritor de ficção escrevendo um romance inspirado em acontecimentos reais. Um bom autor se desviará do que realmente aconteceu para um cenário imaginado que revela uma verdade mais profunda, esforçando-se para criar algo mais real que a realidade.

Quando pedi ao ChatGPT para escrever um obituário para mim – admita, você também tentou isso – ele acertou muitas coisas, mas algumas coisas erradas. Deu-me netos que não tinha, concedeu-me uma data de nascimento anterior e acrescentou um National Magazine Award ao meu currículo por artigos que não escrevi sobre a crise das pontocom no final da década de 1990. Na avaliação da minha vida pelo LLM, isso é algo que deve aconteceram com base nos fatos da minha carreira. Concordo! Foi apenas por causa da imperfeição da vida real que a Sociedade Americana de Editores de Revistas não conseguiu me premiar com a escultura de metal do elefante que acompanha essa honra. Depois de quase 50 anos escrevendo revistas, a culpa é deles, não de mim! É quase como se o ChatGPT fizesse uma enquete sobre possíveis multiversos e descobrisse que na maioria deles eu ganhei um prêmio Ellie. Claro, eu teria preferido que, aqui no meu canto do multiverso, juízes humanos me chamassem ao pódio. Mas o reconhecimento de uma rede neural artificial vampírica é melhor do que nada.



Source link

Related Articles

Deixe um comentário