Home Economia O retorno de Sam Altman como CEO da OpenAI é um alívio – e uma lição – para todos nós

O retorno de Sam Altman como CEO da OpenAI é um alívio – e uma lição – para todos nós

Por Humberto Marchezini


A repentina demissão do CEO da OpenAI, Sam Altman, na sexta-feira, inicialmente parecia sugerir uma coisa: ele deve ter feito algo muito, muito ruim. Possivelmente ilegal.

Afinal, mesmo quando os executivos fazem uso indevido dos fundos da empresa de forma fraudulenta ou relações sexuais impróprias com funcionáriosas empresas normalmente levam meses para anunciar a saída de um líder para passar mais tempo “com a família” ou em “empreendimentos filantrópicos”.

Então, quando o Conselho de Administração da OpenAI anunciou publicamente que Altman havia sido demitido depois de “não ter sido consistentemente sincero”, poucas horas depois de o próprio Altman ter sido informado de que foi demitido, e antes que investidores importantes como a Microsoft fossem informados – a velocidade sem precedentes pareceu indicar uma prevaricação sem precedentes. por Altman.

Aparentemente, esta velocidade sem precedentes indica algo muito mais importante: que o anterior Conselho de Administração responsável por supervisionar a empresa de IA mais avançada do mundo não tinha capacidade para o fazer.

Desenvolvimento de IA independente e responsável

A única coisa em que todos os lados do debate sobre a “IA responsável” concordam é que decisões cruciais não devem ser tomadas impulsivamente, sem uma tentativa de compreender as consequências a longo prazo.

Emboscar o CEO e o Presidente do Conselho, com menos de uma hora de antecedência antes da notícia se tornar pública, é impulsivo.

Fazer um anúncio público sobre a decisão antes de contar aos grandes investidores – e muito menos consultá-los – é impulsivo.

Nomear um CEO interino sem qualquer experiência em IA, que vangloria-se que ele “evitava alegremente o emprego em tempo integral” e aceitou o cargo depois de “refletir sobre isso por apenas algumas horas” é impulsivo. Na verdade, a sua principal qualificação parecia ser a vontade de assumir impulsivamente o papel.

O membro do conselho da OpenAI que demitiu Altman revertendo sua decisão menos de 48 horas depois – é impulsivo.

Ironicamente, os ex-membros do conselho da OpenAI alegaram que demitiram Altman devido a preocupações de que a empresa estava agindo rápido demais.

A IA só pode ser segura se aqueles que são pioneiros no seu desenvolvimento tiverem interesse e capacidade para implementar salvaguardas.

A reintegração de Altman e a nomeação de novos membros do conselho da OpenAI têm implicações positivas para o estado da IA ​​generativa. Sua saída da OpenAI poderia ter criado um vazio que comprometeria o desenvolvimento responsável da IA. Mas a crise desnecessária sublinha a necessidade de uma liderança forte e consistente e de uma tomada de decisões ponderada nas empresas que estão na vanguarda das tecnologias de ponta.

O mundo está claramente em melhor situação quando a sua proeminente empresa de IA é orientada para a missão e independente, embora as implicações globais da semana passada ainda não sejam vistas.

O tipo certo de interrupção

As empresas que determinarão o futuro da IA ​​são as que estão na vanguarda dela. No momento, isso é OpenAI.

Nenhuma alternativa oferece algo próximo às suas capacidades generativas de IA. No ano passado, a capacidade de Sam Altman de trabalhar bem com tecnólogos, membros do Congresso e pesquisadores fez dele o rosto da IA ​​generativa.

A OpenAI implementou salvaguardas para mitigar abusos da sua plataforma e foi inicialmente estruturada como uma organização sem fins lucrativos “para garantir que a inteligência artificial geral beneficie toda a humanidade”, independentemente das exigências de geração de receitas.

Somente quando Elon Musk deixou a organização em 2018 – e parou de financiar seus substanciais custos de computação – é que Altman incorporou a LLC com fins lucrativos à organização sem fins lucrativos.

Antes da semana passada, as notícias recentes da OpenAI centravam-se no lançamento de produtos inovadores, na sua primeira conferência de desenvolvedores bem-sucedida e no testemunho eficaz de Altman perante o Congresso sobre o seu desejo de trabalhar com eles para garantir o desenvolvimento seguro da IA.

Independência, incentivos e velocidade da inovação

Existem inúmeras consequências potenciais se toda a equipe OpenAI tivesse migrado para a Microsoft, incluindo: desacelerar o ritmo da inovação, concentrar o poder da IA ​​generativa nas mãos de um gigante da tecnologia e permitir que concorrentes – a maioria dos quais não exibem o mesmo preocupação com a IA responsável – para fechar a liderança significativa da OpenAI.

A Microsoft já estava numa posição vantajosa como investidora e com a sua licença perpétua de OpenAI, que inclui conhecimento crucial dos pesos dos nós do algoritmo.

Se Altman não regressasse, 95% dos 770 funcionários da OpenAI ameaçaram sair e ingressar na Microsoft – incluindo o CTO e outros líderes seniores.

Se isso tivesse acontecido, a OpenAI se tornaria uma casca da empresa que é. E uma concentração crítica dos principais criadores de IA funcionaria para um gigante tecnológico cujo principal fluxo de receitas e obrigações fiduciárias para com os acionistas já estão consolidados.

A saída de Altman poderia ter criado uma oportunidade para os concorrentes globais colmatarem a lacuna no desenvolvimento da IA, uma vez que a equipa da OpenAI levaria tempo para recriar o seu progresso e navegar numa nova estrutura organizacional.

A inevitável desaceleração das aplicações baseadas na OpenAI significaria que os avanços que salvam ou mudam vidas na medicina, na educação, na mitigação de preconceitos e na ciência que os desenvolvedores estão atualmente construindo na OpenAI seriam atrasados. Alguns nunca se desenvolveriam.

Essa é a natureza dos avanços tecnológicos: eles se complementam e aceleram exponencialmente ao longo do tempo.

Quando o progresso de qualquer tecnologia – e o acesso confiável, acessível e consistente a ela – é atrofiado, os avanços baseados nela ficam comprometidos. Os efeitos de gotejamento da inovação atrasada são impossíveis de medir.

Quando os avanços educacionais, médicos e científicos que dependem da IA ​​generativa são adiados, pacientes, estudantes e consumidores perdem benefícios que nunca imaginaram serem possíveis.

O modelo da Microsoft de gerar receita com as vendas de seus produtos de hardware e software colocou em questão a monetização de algoritmos e funcionalidades de IA generativa – causando incerteza que poderia ter atrasado as aplicações de IA generativa à medida que a nova equipe de IA da Microsoft aumentava suas capacidades e o modelo da OpenAI permanecia estagnado ou declinava .

Isto poderia ter aberto uma janela para os concorrentes globais, incluindo os da China, acelerarem os seus esforços e desafiarem a liderança estabelecida pela OpenAI.

Esse atraso e os diferentes cenários éticos e regulamentares entre os EUA e a China podem significar que os avanços na IA seguiram caminhos divergentes, com consequências em cascata para a privacidade, a segurança e a utilização ética.

Lições de liderança

Um desacordo entre o Conselho e o CEO deve ser uma fonte de tensão e conflito saudáveis, incorporando múltiplas perspectivas, e não um golpe de Estado impulsivo. O conselho de uma organização sem fins lucrativos deve responsabilizar o CEO: mas quem responsabiliza o conselho? Apenas seus outros membros.

E, aparentemente, o apoio é generalizado quando 95% dos funcionários estão preparados para deixar a empresa quando discordam de uma decisão impulsiva.

A OpenAI é revolucionária não apenas por causa de sua tecnologia sem precedentes, mas também porque é independente dos gigantes da tecnologia cujas principais fontes de receita são publicidade ou vendas de software empresarial.

Há uma semana, a OpenAI estava em alta com as vitórias recentes que criaram uma reputação de responsabilidade, inovação, integridade e independência.

A administração de Altman posicionou a OpenAI não apenas como um avanço tecnológico, mas também como um envolvimento com os formuladores de políticas e como uma defesa do desenvolvimento seguro da IA. Sua saída marcou um vazio de liderança que compreendesse o delicado equilíbrio entre inovação e responsabilidade.

O regresso de Altman traz promessas sobre a continuidade da liderança que levou a OpenAI à sua preeminência atual – e questões sobre como o caos da semana passada pode impactar a confiança do público e o ritmo da inovação.

Para onde vamos daqui?

A estabilidade da liderança é muitas vezes um motor essencial da inovação e do crescimento sustentados. O desafio para a OpenAI, e para toda a indústria tecnológica, é navegar pela complexidade crescente sem perder de vista o seu objetivo maior: fazer avançar a IA de uma forma que seja responsável, ética e benéfica para a sociedade.

A Microsoft é a única entidade que teve uma posição sem perdas durante toda a turbulência dos últimos 5 dias. Agora, a principal questão sobre o futuro da Microsoft na IA generativa diz respeito a saber se ela tem o talento para capitalizar totalmente a sua posição atual.

O mundo está observando o OpenAI. As suas ações nesta conjuntura crítica moldarão a trajetória do desenvolvimento da IA ​​— com consequências globais que poderão nunca ser totalmente compreendidas.





Source link

Related Articles

Deixe um comentário