Cuando Vinod Khosla sofreu um acidente de esqui em 2011 que levou a uma lesão do LCA em seu joelho, os médicos deram opiniões conflitantes sobre seu tratamento. Frustrado com o sistema de saúde, o principal capitalista de risco ofereceu, em um debate acalorado artigoque algoritmos de IA poderiam fazer o trabalho melhor do que médicos. Desde então, a empresa de Khosla investiu em várias empresas de robótica e tecnologia médica, incluindo a Rad AI, uma empresa de tecnologia de radiologia. autoproclamado o tecno-otimista ainda mantém suas afirmações uma década depois. “Quase toda a expertise será gratuita em um modelo de IA, e teremos muitas delas para o benefício da humanidade”, ele disse à TIME em uma entrevista em agosto.
Uma das figuras mais proeminentes do Vale do Silício, Khosla, 69, foi cofundador da influente empresa de computação Sun Microsystems na década de 1980, que ele acabou vendendo para a Oracle em 2010. Sua empresa de capital de risco Khosla Ventures posteriormente fez grandes apostas em tecnologia verde, saúde e startups de IA em todo o mundo – incluindo uma das primeiras investimento de US$ 50 milhões em 2019 na OpenAI. Quando o CEO da OpenAI, Sam Altman, foi brevemente demitido no ano passado, Khosla foi um dos investidores que falou sobre querer Altman de volta ao cargo mais alto. “Eu era muito vocal que precisávamos nos livrar daqueles, francamente, malucos do EA (Altruísmo Efetivo), que eram na verdade apenas fanáticos religiosos”, ele disse, referindo-se aos membros do conselho da empresa que orquestraram a expulsão. Ele lida com as preocupações deles: “A humanidade enfrenta riscos e temos que administrá-los”, ele disse, “mas isso não significa que renunciamos completamente aos benefícios de tecnologias especialmente poderosas como a IA”.
Khosla, uma das Pessoas Mais Influentes em IA da TIME100 em 2024, acredita firmemente que a IA pode substituir empregos, incluindo aqueles realizados por professores e médicos, e permitir um futuro onde os humanos estejam livres da servidão. “Por causa da IA, teremos abundância suficiente para escolher o que fazer e o que não fazer”, disse ele.
Esta entrevista foi condensada e editada para maior clareza.
A Khosla Ventures tem estado na vanguarda do investimento em IA e tecnologia. Como você decide em que apostar e qual é sua abordagem para inovação?
Mencionei a IA publicamente pela primeira vez em 2000, quando disse que a IA redefiniria o que significa ser humano. Dez anos depois, escrevi um post de blog chamado “Precisamos de médicos?” Nesse post, concentrei-me em quase toda a expertise que será gratuita por meio da IA para o benefício da humanidade. Em 2014, fizemos nosso primeiro investimento em aprendizado profundo em torno da IA para imagens e, logo depois, investimos em radiologia de IA. No final de 2018, decidimos nos comprometer a investir na OpenAI. Essa foi uma grande, grande aposta para nós, e normalmente não faço apostas tão grandes. Mas queremos investir em avanços técnicos de alto risco e experimentos científicos. Nosso foco aqui é no que é ousado, precoce e impactante. A OpenAI foi muito ousada, muito precoce. Ninguém estava falando sobre investir em IA e foi obviamente muito impactante.
Você foi um dos primeiros investidores da OpenAI. Qual foi seu papel em trazer Sam Altman de volta ao seu papel de CEO no ano passado?
Não quero entrar em muitos detalhes, pois não acho que fui a pessoa fundamental fazendo isso, mas definitivamente dei muito apoio (a Altman). Escrevi um post público no blog naquele fim de semana de Ação de Graças, e fui muito claro sobre a necessidade de nos livrarmos daqueles, francamente, malucos do EA (Altruísmo Efetivo), que eram na verdade apenas fanáticos religiosos. A humanidade enfrenta riscos e temos que administrá-los, mas isso não significa que renunciamos completamente aos benefícios de tecnologias especialmente poderosas como a IA.
Quais riscos você acha que a IA representa agora e em 10 anos? E como você propõe gerenciar esses riscos?
Houve um artigo da Anthropic que analisou a questão da explicabilidade desses modelos. Não estamos nem perto de onde precisamos estar, mas isso ainda está progredindo. Alguns pesquisadores se dedicam em tempo integral a essa questão de “como você caracteriza modelos e como faz com que eles se comportem da maneira que queremos que se comportem?” É uma questão complexa, mas teremos as ferramentas técnicas se nos esforçarmos para garantir a segurança. Na verdade, acredito que a principal área para onde o financiamento nacional em universidades deve ir é para pesquisadores que fazem pesquisas de segurança. Acho que a explicabilidade ficará cada vez melhor progressivamente na próxima década. Mas exigir que ela seja totalmente desenvolvida antes de ser implantada seria ir longe demais. Por exemplo, a KV (Khosla Ventures) é uma das poucas que não assume que apenas modelos de linguagem grandes funcionarão para IA, ou que você não precisa de outros tipos de modelos de IA. E estamos fazendo isso investindo em uma startup do Reino Unido chamada Symbolica AI que está usando uma abordagem completamente diferente para IA. Eles trabalharão em conjunto com modelos de linguagem, mas, fundamentalmente, a explicabilidade vem de graça com esses modelos. Como esses serão modelos explicáveis, eles também serão computacionalmente muito mais eficientes se funcionarem. Agora, há um grande “se” em se eles funcionarem, mas isso não significa que não devemos tentar. Prefiro tentar e falhar do que falhar. Tentar é minha filosofia geral.
Você está dizendo que a explicabilidade pode ajudar a mitigar o risco. Mas que ônus isso coloca sobre os criadores dessa tecnologia — os Sam Altmans do mundo — para garantir que eles estejam ouvindo essa pesquisa e integrando esse pensamento à tecnologia em si?
Não acredito que nenhum dos principais fabricantes de modelos esteja ignorando isso. Obviamente, eles não querem compartilhar todo o trabalho proprietário que estão fazendo, e cada um tem uma abordagem ligeiramente diferente. E então compartilhar tudo o que estão fazendo depois de gastar bilhões de dólares não é uma boa abordagem capitalista, mas isso não significa que eles não estejam prestando atenção. Acredito que todos estejam. E, francamente, a segurança se torna um problema maior quando você chega a coisas como robótica.
Você falou de um futuro onde o trabalho é livre e os humanos são livres de servidão. Estou pensando no outro lado disso. Quando falamos sobre substituir coisas como assistência médica primária por IA, como isso muda o mercado de trabalho e como reimaginamos empregos no futuro?
É muito difícil prever tudo, e gostamos de prever tudo antes de deixar acontecer. Mas a sociedade evolui de uma forma que é evolutiva, e essas tecnologias serão evolutivas. Estou muito otimista de que todo profissional terá um estagiário de IA pelos próximos 10 anos. Vimos isso com carros autônomos. Pense nisso como todo programador de software pode ter um programador estagiário de software, todo médico pode ter um estagiário médico, todo engenheiro estrutural pode ter um estagiário de engenheiro estrutural, e muito mais cuidado ou uso dessa expertise será possível com essa supervisão humana que acontecerá na próxima década. E, de fato, o impacto disso na economia deve ser deflacionário, porque a expertise começa a ficar mais barata ou enormemente multiplicada. Um professor pode fazer o trabalho de cinco professores porque cinco estagiários de IA os ajudam.
Isso é interessante porque você está sugerindo quase uma coexistência com IA que complementa ou otimiza o trabalho. Mas você vê isso eventualmente substituindo esses empregos?
Acho que essas serão as escolhas da sociedade, certo? É muito cedo para dizer o que há, e sabemos que a próxima década será sobre essa ideia de estágio de especialização em IA, em conjunto com humanos. O médico de atenção primária médio na América vê o paciente médio uma vez por ano. Na Austrália, são quatro ou cinco vezes por ano porque eles têm uma proporção diferente de médico-paciente. Bem, a América poderia se tornar como a Austrália sem produzir mais 5 médicos. Todos esses efeitos são difíceis de prever, mas está muito claro como será a próxima década. Vimos isso em carros autônomos. Aplique esse modelo a tudo, e então você pode deixá-los ir e fazer mais e mais, e a sociedade pode escolher. Eu acho que no longo prazo, em 30, 40, 50 anos, a necessidade de trabalhar desaparecerá. A maioria dos empregos neste país, na maioria das partes do mundo, não são empregos desejáveis, e acho que teremos abundância suficiente por causa da IA para escolher o que fazer e o que não fazer. Talvez haja muito mais crianças se tornando como Simone Biles ou se esforçando para ser a próxima estrela do basquete. Eu acho que a sociedade fará a maioria dessas escolhas, não a tecnologia, do que é permitido e do que não é.
Você discordou publicamente da abordagem de Lina Khan à FTC. Que papel os reguladores podem desempenhar nessa necessidade de encontrar um equilíbrio entre investir em novas tecnologias radicais e não testadas em escala e a aplicação e regulamentação para garantir que sejam seguras para uso?
Acho que a regulamentação tem um papel a desempenhar. Quanto e quando são nuances críticas. Não podemos desacelerar esse desenvolvimento e ficar para trás da China. Tenho sido muito, muito claro e agressivo com a China porque estamos na corrida pelo domínio da tecnologia com eles. Isso não é isolado. Os europeus meio que se autoregulamentaram para fora de qualquer desenvolvimento tecnológico, francamente, em todas as principais áreas, incluindo IA. Isso é ir longe demais. Mas achei que a ordem executiva que o presidente Biden emitiu foi razoavelmente equilibrada. Muitas, muitas pessoas contribuíram para esse processo, e acho que essa é a mão certa e equilibrada.
Você pode expandir onde vê dominância na corrida global de IA? Você acha que países como Japão e Índia podem se tornar líderes globais de IA?
No Ocidente, está bem claro que haverá alguns modelos dominantes. Lugares como Google, OpenAI, Meta e Anthropic terão modelos de última geração. Então não haverá 50 players no Ocidente, mas haverá alguns, um punhado, como parece atualmente. Agora, isso não significa que o mundo tenha que depender dos modelos americanos. No Japão, por exemplo, até mesmo o script Kanji é muito diferente, assim como suas necessidades de defesa nacional. Eles querem ser independentes. Se a IA vai desempenhar um papel na defesa nacional, eles terão que confiar em um modelo japonês. A mesma coisa na Índia. Se a China tem seu próprio modelo, a Índia terá seu próprio modelo. E então modelos nacionais existirão. Há Mistral na UE, e essa é uma tendência que reconhecemos muito cedo, e fomos os primeiros a investir nessa ideia de que países e regiões com grandes populações vão querer seus próprios modelos.
Ao pensar sobre esses modelos nacionais, como você garante uma distribuição mais equitativa dos benefícios da IA ao redor do mundo?
Eu acho que temos que prestar atenção para garantir isso, mas estou relativamente otimista de que isso acontecerá automaticamente. Na Índia, por exemplo, o sistema de pagamento Aadhaar do governo essencialmente eliminou Visa e MasterCard em sua (taxa) de 3% em todas as transações. Eu argumentei que se esse mesmo sistema é a chave para fornecer serviços de IA, um médico de atenção primária e um tutor de IA para todos devem ser incluídos no mesmo serviço. Não custaria muito fazer isso. Na verdade, acho que muitos deles se tornarão serviços governamentais gratuitos e muito mais acessíveis em geral. Vimos isso acontecer com outras tecnologias, como a internet. Era caro em 1996, e agora o smartphone se tornou bastante difundido no Ocidente e está lentamente se tornando difundido no mundo em desenvolvimento também.