Quando Emmett Shear, ex-presidente-executivo do site de transmissão ao vivo Twitch, foi nomeado presidente-executivo interino da OpenAI na noite de domingo, pode ter parecido uma escolha curiosa.
Depois de se formar na faculdade em 2005, ele passou quase toda a sua carreira no Twitch, a plataforma de propriedade da Amazon popular entre os jogadores de videogame, à medida que crescia de um site incipiente chamado Justin.tv para um gigante com mais de 30 milhões de espectadores diários, antes de sair. no início deste ano.
Shear, 40 anos, um ávido jogador de videogame, era visto como um líder competente que conduziu Twitch em diversas transições. Mas ele enfrentou críticas, inclusive pela maneira como lidou com as alegações em 2020 de que a cultura do local de trabalho do Twitch era hostil às mulheres e pela lentidão do site em responder a conteúdos prejudiciais. Alguns funcionários e streamers também reclamaram que seu foco em direcionar o Twitch em direção à lucratividade por meio do corte de custos estava prejudicando a qualidade da plataforma.
Ele também conhece Sam Altman, que foi forçado a deixar a OpenAI pelo conselho de administração na sexta-feira. Os dois faziam parte do mesmo grupo no Y Combinator, o fundo start-up que investiu nas duas primeiras empresas.
Mas em entrevistas e nas redes sociais, Shear articulou uma visão sobre os riscos da inteligência artificial que poderia atrair os membros do conselho da OpenAI, que expulsaram Altman, pelo menos em parte, por temerem que ele não estivesse pagando o suficiente. atenção à ameaça potencial representada pela tecnologia da empresa.
Aparecendo em um podcast de tecnologia em junho, Shear expressou preocupação sobre o que poderia acontecer se e quando a IA atingir a inteligência artificial geral, ou AGI, um termo para inteligência de nível humano. Ele temia que, nesse ponto, um sistema de IA pudesse tornar-se tão poderoso que pudesse continuar a melhorar sem a necessidade de intervenção humana e teria a capacidade de destruir a humanidade.
Shear não foi encontrado imediatamente para comentar o assunto na segunda-feira. Em uma postagem no X, plataforma anteriormente conhecida como Twitter, na manhã de segunda-feira, ele escreveu que passaria o primeiro mês de seu mandato investigando como Altman havia sido afastado e reformando a equipe administrativa da empresa.
“Dependendo dos resultados e de tudo o que aprendermos com isso, impulsionarei mudanças na organização – inclusive pressionando fortemente por mudanças significativas de governança, se necessário”, disse ele.
No podcast, Shear discutiu um conceito, frequentemente discutido nos círculos de IA, que se concentra em clipes de papel: em suma, a ideia é que mesmo dar a uma IA todo-poderosa um objetivo tão mundano como fazer o maior número possível de clipes de papel seria levou a determinar que erradicar os humanos seria a maneira mais eficiente de atingir esse objetivo.
“O primeiro passo é ‘assumir o controle do planeta’, certo? Então eu simplesmente tenho controle sobre tudo. O segundo passo é ‘Eu resolvo meu objetivo’”, disse ele.
Se a IA chegar a esse ponto, disse Shear, a catástrofe potencial seria como uma “bomba destruidora do universo”.
“Não se trata apenas de uma extinção a nível humano; extinguir humanos já é ruim o suficiente”, disse ele. “É como uma destruição potencial de todo o valor do cone de luz. Não apenas para nós, mas para qualquer espécie exótica capturada após a explosão.”
Shear disse que não estava tão preocupado quanto alguns teóricos da IA sobre este tipo de evento que acabaria com o mundo: em parte porque ele não achava que a atual tecnologia de IA estivesse perto de tal avanço, e em parte porque ele achava que seria possível garantir Os objetivos dos sistemas de IA estavam alinhados com os dos humanos. Mas ele ainda abraçou as salvaguardas da indústria.
“Sou a favor da criação de algum tipo de alarme de incêndio, como talvez, ‘Não IAs maiores que x’”, disse ele. “Acho que há boas opções para colaboração internacional e tratados sobre algum tipo de tratado de proibição de testes de IA.”
Em postagens nas redes sociais sobre X, o Sr. Shear reforçou esses pontos, referindo-se a si mesmo como um “destruidor” e sugerindo que as empresas deveriam pisar no freio em seus avanços tecnológicos.
“Sou a favor de uma desaceleração” ele respondeu para outro usuário em setembro. “Não podemos aprender como construir uma IA segura sem experimentar, e não podemos experimentar sem progresso, mas provavelmente também não deveríamos avançar na velocidade máxima.”