O que aconteceu na OpenAI nos últimos cinco dias pode ser descrito de várias maneiras: um suculento drama de diretoria, um cabo de guerra por uma das maiores start-ups da América, um confronto entre aqueles que querem que a IA progrida mais rápido e aqueles que querem desacelerar. para baixo.
Mas foi, mais importante ainda, uma luta entre duas visões conflitantes da inteligência artificial.
Numa visão, a IA é uma nova ferramenta transformadora, a mais recente de uma linha de inovações que mudam o mundo, que inclui a máquina a vapor, a eletricidade e o computador pessoal, e que, se for utilizada corretamente, poderá inaugurar uma nova era de prosperidade e ganhar muito dinheiro para as empresas que aproveitam o seu potencial.
Noutra visão, a IA é algo mais próximo de uma forma de vida alienígena – um leviatã a ser convocado das profundezas matemáticas das redes neurais – que deve ser restringido e utilizado com extrema cautela, a fim de evitar que tome conta e mate a todos nós.
Com o regresso de Sam Altman na terça-feira à OpenAI, empresa cujo conselho o demitiu do cargo de executivo-chefe na sexta-feira passada, a batalha entre essas duas visões parece ter terminado.
A equipe Capitalismo venceu. A equipe Leviatã perdeu.
O novo conselho da OpenAI será composto por três pessoas, pelo menos inicialmente: Adam D’Angelo, o executivo-chefe do Quora (e o único remanescente do antigo conselho); Bret Taylor, ex-executivo do Facebook e Salesforce; e Lawrence H. Summers, ex-secretário do Tesouro. Espera-se que o conselho cresça a partir daí.
Espera-se também que o maior investidor da OpenAI, a Microsoft, tenha uma voz mais forte na governança da OpenAI no futuro. Isso pode incluir um assento no conselho.
Saíram do conselho três dos membros que pressionaram pela demissão de Altman: Ilya Sutskever, cientista-chefe da OpenAI (que desde então se retratou de sua decisão); Helen Toner, diretora de estratégia do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown; e Tasha McCauley, empreendedora e pesquisadora da RAND Corporation.
Sutskever, Toner e McCauley são representantes dos tipos de pessoas que estiveram fortemente envolvidas no pensamento sobre IA há uma década – uma mistura eclética de acadêmicos, futuristas do Vale do Silício e cientistas da computação. Eles viam a tecnologia com uma mistura de medo e admiração, e preocupavam-se com eventos futuros teóricos como a “singularidade”, um ponto em que a IA ultrapassaria a nossa capacidade de a conter. Muitos eram afiliados a grupos filosóficos como os Altruístas Eficazes, um movimento que utiliza dados e racionalidade para tomar decisões morais, e foram persuadidos a trabalhar em IA pelo desejo de minimizar os efeitos destrutivos da tecnologia.
Essa era a vibração em torno da IA em 2015, quando a OpenAI foi formada como uma organização sem fins lucrativos, e ajuda a explicar por que a organização manteve sua complicada estrutura de governança – que deu ao conselho da organização sem fins lucrativos a capacidade de controlar as operações da empresa e substituir sua liderança – mesmo depois de iniciou um braço com fins lucrativos em 2019. Na altura, proteger a IA das forças do capitalismo era vista por muitos na indústria como uma prioridade máxima, que precisava de ser consagrada nos estatutos corporativos e nos documentos estatutários.
Mas muita coisa mudou desde 2019. A IA poderosa não é mais apenas um experimento mental – ela existe dentro de produtos reais, como o ChatGPT, que são usados por milhões de pessoas todos os dias. As maiores empresas de tecnologia do mundo estão correndo para construir sistemas ainda mais poderosos. E estão a ser gastos milhares de milhões de dólares para construir e implementar IA nas empresas, na esperança de reduzir os custos laborais e aumentar a produtividade.
Os novos membros do conselho são os tipos de líderes empresariais que você esperaria que supervisionassem tal projeto. Taylor, o novo presidente do conselho, é um negociador experiente do Vale do Silício que liderou a venda do Twitter para Elon Musk no ano passado, quando era presidente do conselho do Twitter. E o Sr. Summers é o Ur-capitalista – um economista proeminente quem disse que ele acredita que a mudança tecnológica é um “bem líquido” para a sociedade.
Ainda pode haver vozes de cautela no conselho reconstituído da OpenAI ou figuras do movimento de segurança da IA. Mas eles não terão poder de veto, nem a capacidade de efetivamente fechar a empresa num instante, como fazia o antigo conselho. E as suas preferências serão equilibradas com as de outros, como as dos executivos e investidores da empresa.
Isso é bom se você for a Microsoft ou qualquer uma das milhares de outras empresas que dependem da tecnologia OpenAI. Uma governação mais tradicional significa menos risco de uma explosão repentina ou de uma mudança que o forçaria a mudar rapidamente de fornecedor de IA.
E talvez o que aconteceu na OpenAI — um triunfo dos interesses corporativos sobre as preocupações com o futuro — fosse inevitável, dada a importância crescente da IA. Era improvável que uma tecnologia potencialmente capaz de inaugurar uma Quarta Revolução Industrial fosse governada a longo prazo por aqueles que queriam abrandá-la – não quando tanto dinheiro estava em jogo.
Ainda existem alguns vestígios das antigas atitudes na indústria da IA. A Anthropic, uma empresa rival fundada por um grupo de ex-funcionários da OpenAI, estabeleceu-se como uma empresa de utilidade pública, uma estrutura legal que visa isolá-la das pressões do mercado. E um movimento ativo de IA de código aberto tem defendido que a IA permaneça livre do controle corporativo.
Mas estes são melhor vistos como os últimos vestígios da velha era da IA, em que as pessoas que construíram a IA encaravam a tecnologia com admiração e terror, e procuravam restringir o seu poder através da governação organizacional.
Agora, os utópicos estão no comando. Velocidade máxima a frente.