À primeira vista, um lote recente de artigos de pesquisa produzidos por um proeminente laboratório de inteligência artificial na University of British Columbia em Vancouver pode não parecer tão notável. Apresentando melhorias incrementais em algoritmos e ideias existentes, eles parecem o conteúdo de uma conferência ou periódico de IA mediano.
Mas a pesquisa é, de fato, notável. Isso porque é inteiramente o trabalho de um “Cientista de IA” desenvolvido no laboratório da UBC em conjunto com pesquisadores da Universidade de Oxford e uma startup chamada Sakana IA.
O projeto demonstra um passo inicial em direção ao que pode provar ser um truque revolucionário: deixar a IA aprender inventando e explorando ideias novas. Elas simplesmente não são supernovas no momento. Vários artigos descrevem ajustes para melhorar uma técnica de geração de imagens conhecida como modelagem de difusão; outro descreve uma abordagem para acelerar o aprendizado em redes neurais profundas.
“Estas não são ideias inovadoras. Não são muito criativas”, admite Jeff Cluneo professor que lidera o laboratório da UBC. “Mas elas parecem ideias bem legais que alguém pode tentar.”
Por mais incríveis que os programas de IA de hoje possam ser, eles são limitados pela necessidade de consumir dados de treinamento gerados por humanos. Se os programas de IA puderem aprender de forma aberta, experimentando e explorando ideias “interessantes”, eles podem desbloquear capacidades que vão além de qualquer coisa que os humanos tenham mostrado a eles.
O laboratório de Clune havia desenvolvido anteriormente programas de IA projetados para aprender dessa forma. Por exemplo, um programa chamado Omni tentou gerar o comportamento de personagens virtuais em vários ambientes semelhantes a videogames, arquivando aqueles que pareciam interessantes e então iterando neles com novos designs. Esses programas anteriormente exigiam instruções codificadas manualmente para definir o que era interessante. Grandes modelos de linguagem, no entanto, fornecem uma maneira de deixar esses programas identificarem o que é mais intrigante. Outra projeto recente do laboratório de Clune usou essa abordagem para permitir que programas de IA criassem o código que permite que personagens virtuais façam todo tipo de coisa em um mundo semelhante ao Roblox.
O cientista de IA é um exemplo do laboratório de Clune improvisando sobre as possibilidades. O programa cria experimentos de aprendizado de máquina, decide o que parece mais promissor com a ajuda de um LLM, então escreve e executa o código necessário — enxágue e repita. Apesar dos resultados decepcionantes, Clune diz que programas de aprendizado aberto, assim como os próprios modelos de linguagem, podem se tornar muito mais capazes à medida que o poder do computador que os alimenta é aumentado.
“É como explorar um novo continente ou um novo planeta”, diz Clune sobre as possibilidades desbloqueadas pelos LLMs. “Não sabemos o que vamos descobrir, mas para onde quer que olhemos, há algo novo.”
Tom Esperançaum professor assistente na Universidade Hebraica de Jerusalém e um cientista pesquisador no Instituto Allen para IA (AI2), diz que o cientista de IA, como os LLMs, parece ser altamente derivativo e não pode ser considerado confiável. “Nenhum dos componentes é confiável agora”, ele diz.
Hope ressalta que os esforços para automatizar elementos da descoberta científica remontam a décadas, ao trabalho dos pioneiros da IA Allen Newell e Herbert Simão na década de 1970 e, mais tarde, o trabalho de Pat
Langley no Institute for the Study of Learning and Expertise. Ele também observa que vários outros grupos de pesquisa, incluindo uma equipe na AI2, recentemente aproveitaram os LLMs para ajudar a gerar hipóteses, escrever artigos e revisar pesquisas. “Eles capturaram o zeitgeist”, diz Hope sobre a equipe da UBC. “A direção é, claro, incrivelmente valiosa, potencialmente.”
Se os sistemas baseados em LLM podem algum dia gerar ideias realmente novas ou revolucionárias também permanece incerto. “Essa é a pergunta de um trilhão de dólares”, diz Clune.
Mesmo sem avanços científicos, o aprendizado aberto pode ser vital para desenvolver sistemas de IA mais capazes e úteis no presente. Um relatório postado este mês pela Air Street Capital, uma empresa de investimentos, destaca o potencial do trabalho de Clune para desenvolver agentes de IA mais poderosos e confiáveis, ou programas que realizam tarefas úteis de forma autônoma em computadores. Todas as grandes empresas de IA parecem ver os agentes como a próxima grande novidade.
Esta semana, o laboratório de Clune revelou seu mais recente projeto de aprendizagem aberto: um Programa de IA que inventa e constrói agentes de IA. Os agentes projetados por IA superam os agentes projetados por humanos em algumas tarefas, como matemática e compreensão de leitura. O próximo passo será criar maneiras de evitar que tal sistema gere agentes que se comportem mal. “É potencialmente perigoso”, diz Clune sobre este trabalho. “Precisamos fazer direito, mas acho que é possível.”