Seria fácil descartar o processo de Elon Musk contra a OpenAI como um caso de uvas verdes.
Musk processou a OpenAI esta semana, acusando a empresa de violar os termos de seu acordo de fundação e de violar seus princípios fundadores. Segundo ele, a OpenAI foi estabelecida como uma organização sem fins lucrativos que construiria poderosos sistemas de IA para o bem da humanidade e distribuiria suas pesquisas gratuitamente ao público. Mas Musk argumenta que a OpenAI quebrou essa promessa ao iniciar uma subsidiária com fins lucrativos que recebeu bilhões de dólares em investimentos da Microsoft.
Uma porta-voz da OpenAI se recusou a comentar o processo. Em um memorando enviado aos funcionários na sexta-feira, Jason Kwon, diretor de estratégia da empresa, negou as alegações de Musk e disse: “Acreditamos que as reivindicações neste processo podem resultar do arrependimento de Elon por não estar envolvido com a empresa hoje”, segundo. a uma cópia do memorando que vi.
Por um lado, o processo cheira a problemas pessoais. Musk, que fundou a OpenAI em 2015 junto com um grupo de outros pesos pesados da tecnologia e forneceu grande parte de seu financiamento inicial, mas saiu em 2018 devido a disputas com a liderança, se ressente de ter sido marginalizado nas conversas sobre IA. tanta tração quanto o ChatGPT, o principal chatbot da OpenAI. E o desentendimento de Musk com Sam Altman, presidente-executivo da OpenAI, foi bem documentado.
Mas em meio a toda a animosidade, há um ponto que vale a pena destacar, porque ilustra um paradoxo que está no centro de grande parte da conversa atual sobre IA – e um lugar onde a OpenAI realmente tem falado pelos dois lados da boca, insistindo que os seus sistemas de IA são incrivelmente poderosos e que estão longe de se igualar à inteligência humana.
A afirmação centra-se num termo conhecido como AGI, ou “inteligência artificial geral”. Definir o que constitui AGI é notoriamente complicado, embora a maioria das pessoas concorde que isso significa um sistema de IA que pode fazer a maioria ou todas as coisas que o cérebro humano pode fazer. O Sr. Altman tem definiram AGI como “o equivalente a um ser humano médio que você poderia contratar como colega de trabalho”, enquanto o próprio OpenAI define AGI como “um sistema altamente autônomo que supera os humanos na maioria dos trabalhos economicamente valiosos”.
A maioria dos líderes de empresas de IA afirmam que a AGI não só é possível de construir, mas também que é iminente. Demis Hassabis, executivo-chefe do Google DeepMind, me disse em uma recente entrevista em podcast que achava que a AGI poderia chegar já em 2030. Sr. Altman disse que a AGI pode estar a apenas quatro ou cinco anos de distância.
Construir AGI é o objetivo explícito da OpenAI e há muitos motivos para querer chegar lá antes de qualquer outra pessoa. Uma verdadeira AGI seria um recurso incrivelmente valioso, capaz de automatizar grandes quantidades de trabalho humano e gerar muito dinheiro para seus criadores. É também o tipo de objetivo brilhante e audacioso que os investidores adoram financiar e que ajuda os laboratórios de IA a recrutar engenheiros e pesquisadores de ponta.
Mas a AGI também pode ser perigosa se for capaz de enganar os humanos ou se se tornar enganosa ou desalinhada com os valores humanos. As pessoas que iniciaram a OpenAI, incluindo Musk, temiam que uma AGI fosse poderosa demais para ser propriedade de uma única entidade e que, se chegassem perto de construir uma, precisariam mudar a estrutura de controle em torno dela. para evitar que cause danos ou concentre demasiada riqueza e poder nas mãos de uma única empresa.
É por isso que, quando a OpenAI firmou uma parceria com a Microsoft, concedeu especificamente à gigante da tecnologia uma licença que se aplicava apenas a tecnologias “pré-AGI”. (O New York Times processou a Microsoft e a OpenAI pelo uso de trabalhos protegidos por direitos autorais.)
De acordo com os termos do acordo, se a OpenAI algum dia construísse algo que atendesse à definição de AGI – conforme determinado pelo conselho sem fins lucrativos da OpenAI – a licença da Microsoft não seria mais aplicável, e O conselho da OpenAI pode decidir fazer o que quisesse para garantir que a AGI da OpenAI beneficiasse toda a humanidade. Isso pode significar muitas coisas, incluindo abrir o código-fonte da tecnologia ou desligá-la totalmente.
A maioria dos comentaristas de IA acredita que os modelos de IA de ponta de hoje não se qualificam como AGI, porque carecem de habilidades de raciocínio sofisticadas e frequentemente cometem erros estúpidos.
Mas em seu processo judicial, Musk apresenta um argumento incomum. Ele argumenta que a OpenAI tem já alcançou AGI com seu modelo de linguagem GPT-4, lançado no ano passado, e que a tecnologia futura da empresa se qualificará ainda mais claramente como AGI
“Com base na informação e na crença, GPT-4 é um algoritmo AGI e, portanto, expressamente fora do escopo da licença exclusiva da Microsoft de setembro de 2020 com OpenAI”, diz a reclamação.
O que Musk está argumentando aqui é um pouco complicado. Basicamente, ele está dizendo que, por ter alcançado AGI com GPT-4, a OpenAI não tem mais permissão para licenciá-lo para a Microsoft, e que seu conselho é obrigado a disponibilizar a tecnologia e a pesquisa de forma mais gratuita.
Sua reclamação cita o agora infame artigo “Sparks of AGI” de uma equipe de pesquisa da Microsoft no ano passado, que argumentou que o GPT-4 demonstrou indícios iniciais de inteligência geral, entre eles sinais de raciocínio em nível humano.
Mas a denúncia também observa que é improvável que o conselho da OpenAI decida que seus sistemas de IA na verdade qualificar-se como AGI, porque assim que o fizer, terá de fazer grandes mudanças na forma como implementa e lucra com a tecnologia.
Além disso, ele observa que a Microsoft – que agora tem um assento de observador sem direito a voto no conselho da OpenAI, após uma reviravolta no ano passado que resultou na demissão temporária de Altman – tem um forte incentivo para negar que a tecnologia da OpenAI se qualifique como AGI. licença para usar essa tecnologia em seus produtos e comprometer lucros potencialmente enormes.
“Dado o enorme interesse financeiro da Microsoft em manter o portão fechado ao público, o novo conselho capturado, conflitante e compatível da OpenAI, Inc. terá todos os motivos para adiar a conclusão de que a OpenAI atingiu AGI”, diz a reclamação. “Pelo contrário, a obtenção de AGI pela OpenAI, como ‘Tomorrow’ em ‘Annie’, estará sempre a um dia de distância.”
Dado o seu histórico de litígio questionável, é fácil questionar os motivos do Sr. Musk aqui. E como chefe de uma start-up concorrente de IA, não é surpreendente que ele queira envolver a OpenAI em litígios complicados. Mas seu processo aponta para um verdadeiro enigma para a OpenAI.
Tal como os seus concorrentes, a OpenAI deseja muito ser vista como líder na corrida para construir AGI e tem interesse em convencer investidores, parceiros de negócios e o público de que os seus sistemas estão a melhorar a um ritmo vertiginoso.
Mas devido aos termos do seu acordo com a Microsoft, os investidores e executivos da OpenAI podem não querer admitir que a sua tecnologia realmente se qualifica como AGI, se e quando realmente o fizer.
Isso colocou Musk na estranha posição de pedir a um júri que decida sobre o que constitui AGI e decida se a tecnologia da OpenAI atingiu o limite.
O processo também colocou a OpenAI na estranha posição de minimizar as habilidades de seus próprios sistemas, ao mesmo tempo em que continua a alimentar a expectativa de que um grande avanço em AGI está chegando.
“GPT-4 não é um AGI”, escreveu Kwon, da OpenAI, no memorando aos funcionários na sexta-feira. “É capaz de resolver pequenas tarefas em muitos empregos, mas a proporção entre o trabalho realizado por um ser humano e o trabalho realizado pelo GPT-4 na economia permanece surpreendentemente alta.”
A rivalidade pessoal que alimentou a reclamação do Sr. Musk levou algumas pessoas a considerá-la um processo frívolo – um comentarista comparado é “processar sua ex porque ela remodelou a casa após o seu divórcio” – isso será rapidamente rejeitado.
Mas mesmo que seja descartado, o processo movido por Musk aponta para questões importantes: quem decide quando algo se qualifica como AGI? As empresas de tecnologia estão exagerando ou sendo sábias (ou ambos), quando se trata de descrever a capacidade de seus sistemas? E que incentivos estão por trás de várias afirmações sobre quão próximos ou distantes da AGI podemos estar?
Uma ação judicial movida por um bilionário ressentido provavelmente não é a maneira certa de resolver essas questões. Mas é bom perguntar, especialmente à medida que o progresso da IA continua a acelerar.