ÓO CEO da penAI, Sam Altman, publicou recentemente um publicar em seu blog pessoal refletindo sobre o progresso da IA e suas previsões sobre como a tecnologia impactará o futuro da humanidade. “Agora estamos confiantes de que sabemos como construir AGI (inteligência artificial geral) como tradicionalmente a entendemos”, escreveu Altman. Ele acrescentou que a OpenAI, empresa por trás do ChatGPT, está começando a voltar sua atenção para a superinteligência.
Embora não exista uma definição universalmente aceita para AGI, a OpenAI tem historicamente definido é considerado “um sistema altamente autônomo que supera os humanos na maioria dos trabalhos economicamente valiosos”. Embora os sistemas de IA já superem os humanos em domínios restritos, como o xadrez, a chave para a AGI é a generalidade. Tal sistema seria capaz de, por exemplo, gerir um projeto de codificação complexo do início ao fim, basear-se em conhecimentos da biologia para resolver problemas de engenharia ou escrever um romance digno de um Pulitzer. A OpenAI afirma que sua missão é “garantir que a AGI beneficie toda a humanidade”.
Altman indicou em sua postagem que os avanços na tecnologia poderiam levar a uma adoção mais perceptível da IA no local de trabalho no próximo ano, na forma de IA agentes—sistemas autônomos que podem executar tarefas específicas sem intervenção humana, potencialmente realizando ações durante dias seguidos. “Em 2025, poderemos ver os primeiros agentes de IA ‘se juntarem à força de trabalho’ e mudar materialmente a produção das empresas”, escreveu ele.
Em uma entrevista recente à Bloomberg, Altman disse ele acha que “AGI provavelmente será desenvolvido durante o mandato (de Trump)”, embora observe sua crença de que AGI “se tornou um termo muito desleixado”. Os concorrentes também acham que a AGI está próxima: Elon Musk, cofundador da OpenAI, que dirige a startup de IA xAI, e Dario Amodei, CEO da Anthropic, disseram que acham que os sistemas de IA podem ser mais espertos que os humanos até 2026. Na maior pesquisa de IA pesquisadores até o momento, que incluíram mais de 2.700 participantes, os pesquisadores estimaram coletivamente que há 10% de chance de que os sistemas de IA possam superar os humanos na maioria das tarefas até 2027, assumindo que a ciência continue progredindo sem interrupção.
Outros são mais céticos. Gary Marcus, um proeminente comentarista de IA, discorda com Altman que AGI é “basicamente um problema resolvido”, enquanto Mustafa Suleyman, CEO da Microsoft AI, dissesobre se a AGI pode ser alcançada no hardware de hoje,“a incerteza em torno disso é tão alta, que qualquer declaração categórica parece meio infundada para mim e exagerada”, citando os desafios da robótica como uma causa para seu ceticismo.
Microsoft e OpenAI, que mantêm parceria desde 2019, também possuem uma definição financeira de AGI. A Microsoft é o provedor de nuvem exclusivo e maior financiador da OpenAI, tendo investido mais de US$ 13 bilhões na empresa até o momento. As empresas têm um acordo de que a Microsoft perderá o acesso aos modelos da OpenAI assim que a AGI for alcançada. Nos termos deste acordo, que não foi divulgado publicamente, a AGI está alegadamente definido como sendo alcançado quando um sistema de IA é capaz de gerar os lucros totais máximos a que os seus primeiros investidores têm direito: um valor que atualmente se situa nos 100 mil milhões de dólares. Em última análise, porém, a declaração de “AGI suficiente” permanece a “discrição razoável” do conselho da OpenAI, de acordo com um relatório no The Information.
Atualmente, a OpenAI está muito longe da lucratividade. A empresa atualmente perde bilhões anualmente e tem supostamente projetou que as suas perdas anuais poderiam triplicar para 14 mil milhões de dólares até 2026. Não espera obter o seu primeiro lucro até 2029, quando espera que as suas receitas anuais possam atingir os 100 mil milhões de dólares. Até mesmo o plano mais recente da empresa, ChatGPT Proque custa US$ 200 por mês e dá aos usuários acesso aos modelos mais avançados da empresa, está perdendo dinheiro, Altman escreveu em uma postagem no X. Embora Altman não tenha dito explicitamente por que a empresa está perdendo dinheiro, a execução de modelos de IA exige muito custo, exigindo investimentos em data centers e eletricidade para fornecer o poder de computação necessário.
Busca pela superinteligência
OpenAI tem disse que a AGI “poderia ajudar-nos a elevar a humanidade, aumentando a abundância, turbinando a economia global e ajudando na descoberta de novos conhecimentos científicos que alteram os limites das possibilidades”. Mas os comentários recentes de Altman foram um pouco mais moderados. “Meu palpite é que atingiremos a AGI mais cedo do que a maioria das pessoas no mundo pensa e isso terá muito menos importância”, ele disse em dezembro. “A AGI pode ser construída, o mundo continua basicamente da mesma maneira, as coisas crescem mais rápido, mas há uma longa continuação do que chamamos de AGI até o que chamamos de superinteligência.”
Em sua postagem mais recente, Altman escreveu: “Estamos começando a direcionar nosso objetivo além (AGI), para a superinteligência no verdadeiro sentido da palavra. Amamos nossos produtos atuais, mas estamos aqui para o futuro glorioso.”
Ele acrescentou que “ferramentas superinteligentes poderiam acelerar enormemente a descoberta científica e a inovação muito além do que somos capazes de fazer por conta própria e, por sua vez, aumentar enormemente a abundância e a prosperidade”. Esta capacidade de acelerar a descoberta científica é um factor-chave de distinção entre AGI e superinteligência, pelo menos para Altman, que anteriormente escrito que “é possível que tenhamos superinteligência em alguns milhares de dias”.
O conceito de superinteligência foi popularizado pelo filósofo Nick Bostrom, que em 2014 escreveu um best-seller livro–Superinteligência: Caminhos, Perigos, Estratégias-que Altman tem chamado “a melhor coisa que (ele) viu sobre o assunto.” Bostrom define superinteligência como “qualquer intelecto que exceda em muito o desempenho cognitivo dos humanos em praticamente todos os domínios de interesse” – como AGI, mas mais. “O primeiro AGI será apenas um ponto ao longo de um continuum de inteligência”, OpenAI disse em uma postagem do blog de 2023. “Uma AGI superinteligente desalinhada poderia causar danos graves ao mundo; um regime autocrático com uma liderança decisiva de superinteligência também poderia fazer isso.”
Estes danos são inextricáveis da ideia de superinteligência, porque os especialistas não sabem atualmente como alinhar estes sistemas hipotéticos com os valores humanos. Tanto os sistemas AGI como os superinteligentes podem causar danos, não necessariamente devido a intenções maliciosas, mas simplesmente porque os humanos são incapazes de especificar adequadamente o que pretendem que o sistema faça. Como disse o professor Stuart Russell à TIME em 2024, a preocupação é que “o que parecem ser objectivos razoáveis, como a resolução das alterações climáticas, conduzam a consequências catastróficas, como a eliminação da raça humana como forma de resolver as alterações climáticas”. Em seu ensaio de 2015, Altman escreveu que “o desenvolvimento da inteligência mecânica sobre-humana é provavelmente a maior ameaça à continuação da existência da humanidade”.
Leia mais: Novos testes revelam a capacidade de engano da IA
OpenAI já havia escrito que não sabe “como dirigir e controlar de forma confiável sistemas de IA sobre-humanos”. A equipe criada para liderar o trabalho de direção de sistemas superinteligentes para a segurança humana foi dissolvido no ano passado, depois que ambos os co-líderes deixaram a empresa. Na época um dos co-líderes Jan Leike escreveu no X que “nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes”. Atualmente, a empresa possui três órgãos de segurança: um grupo consultivo de segurança interno, um comitê de segurança e proteção, que faz parte do conselho, e o conselho de segurança de implantação, que conta com membros da OpenAI e da Microsoft, e aprova a implantação de modelos acima de um certo nível de capacidade. Altman disse que estão trabalhando para agilizar seus processos de segurança.
Leia mais: Os modelos de IA estão ficando mais inteligentes. Novos testes estão correndo para alcançá-los
Quando questionado no X se ele acha que o público deveria ser questionado se deseja superinteligência, Altman respondeu: “sim, quero mesmo; Espero que possamos iniciar muito mais debate público muito em breve sobre como abordar isso.” OpenAI tem anteriormente enfatizou que a missão da empresa é construir AGI, não superinteligência, mas a postagem recente de Altman sugere que a postura pode ter mudado.
Discutindo os riscos da IA na recente entrevista à Bloomberg, Altman disse ele ainda espera “que no que diz respeito à segurança cibernética e às questões biológicas, veremos problemas sérios, ou potencialmente sérios, de curto prazo que precisam de mitigação”, e que os riscos a longo prazo sejam mais difíceis de imaginar com precisão. “Posso simultaneamente pensar que estes riscos são reais e também acreditar que a única forma de os abordar adequadamente é enviar produtos e aprender”, disse ele.
Aprendendo com sua breve demissão
Refletindo sobre os últimos anos, Altman escreveu que “foram os anos mais gratificantes, divertidos, melhores, interessantes, exaustivos, estressantes e – principalmente nos dois últimos – desagradáveis da minha vida até agora”.
Aprofundando-se em sua breve demissão em novembro de 2023 como CEO pelo conselho da OpenAI e subsequente retorno à empresa, Altman chamou o evento de “um grande fracasso de governança por pessoas bem-intencionadas, inclusive eu”, observando que gostaria de ter feito as coisas diferentemente. Em sua recente entrevista à Bloomberg, ele expandiu isso, ditado ele se arrepende inicialmente de ter dito que só voltaria à empresa se todo o conselho se demitisse. Ele também disse houve “verdadeiro engano” por parte do conselho, que o acusou de não ser “consistentemente sincero” nas suas relações com eles. Helen Toner e Tasha McCauley, membros do conselho na época, mais tarde escreveu que os líderes seniores da empresa os abordaram com a preocupação de que Altman tivesse cultivado uma “cultura tóxica de mentira” e se envolvido em comportamentos que poderiam ser chamados de “abuso psicológico”.
Os atuais membros do conselho, Bret Taylor e Larry Summers, rejeitado as alegações feitas por Toner e McCauley, e apontou para uma investigação da demissão pelo escritório de advocacia WilmerHale em nome da empresa. Eles escreveram em um artigo de opinião que “consideraram o Sr. Altman altamente aberto em todas as questões relevantes e consistentemente colegial com sua equipe de gestão”.
A revisão atribuído A remoção de Altman deve-se a “um rompimento no relacionamento e perda de confiança entre o conselho anterior e o Sr. Altman”, em vez de preocupações com relação à segurança do produto ou ao ritmo de desenvolvimento. Comentando sobre o período que se seguiu ao seu retorno como CEO, Altman disse à Bloomberg: “Foi como mais uma investigação governamental, outro antigo membro do conselho vazando notícias falsas para a imprensa. E todas aquelas pessoas que eu sinto que realmente me foderam e foderam a empresa se foram, e agora eu tinha que limpar a bagunça deles. Ele não especificou o que queria dizer com “notícias falsas”.
Escrevendo sobre o que a experiência lhe ensinou, Altman disse que “aprendeu a importância de um conselho com pontos de vista diversos e ampla experiência no gerenciamento de um conjunto complexo de desafios. Uma boa governação requer muita confiança e credibilidade.”
Desde o final de 2023, muitos dos principais pesquisadores das empresas – incluindo seu cofundador e então cientista-chefe, Ilya Sutskever, sua diretora de tecnologia, Mira Murati, e Alec Radfordque foi o principal autor do artigo seminal que introduziu o GPT, deixou a empresa.
Leia mais: Cronograma de acusações recentes feitas à OpenAI, Sam Altman
Em dezembro, OpenAI anunciado planeja reestruturar-se como uma empresa de utilidade pública, o que retiraria a empresa do controle da organização sem fins lucrativos que tentou demitir Altman. A organização sem fins lucrativos receberia ações da nova empresa, embora o valor ainda esteja em negociação.
Reconhecendo que alguns podem considerar a discussão sobre a superinteligência como “louca”, Altman escreveu: “Estamos bastante confiantes de que nos próximos anos, todos verão o que vemos, e que a necessidade de agir com muito cuidado, ao mesmo tempo que maximiza a ampla benefício e capacitação, é muito importante”, acrescentando: “Dadas as possibilidades do nosso trabalho, a OpenAI não pode ser uma empresa normal.”