Neste mês de março, quase 35.000 pesquisadores de IA, tecnólogos, empreendedores e cidadãos preocupados assinaram uma carta aberta do Instituto sem fins lucrativos Future of Life que pedia uma “pausa” no desenvolvimento de IA, devido aos riscos para a humanidade revelados nas capacidades de programas como o ChatGPT.
“Os sistemas de IA contemporâneos estão se tornando competitivos para humanos em tarefas gerais, e devemos nos perguntar… Devemos desenvolver mentes não humanas que possam eventualmente superar em número, ser mais inteligentes, obsoletas e nos substituir?”
Ainda posso estar errado, mas quase seis meses depois e com o desenvolvimento da IA mais rápido do que nunca, a civilização não desmoronou. Caramba, o Bing Chat, o “revolucionário” oráculo de busca com base no ChatGPT da Microsoft, nem mesmo desbancou o Google como líder em buscas. Então, o que devemos fazer com as cartas e avisos semelhantes de ficção científica apoiados por nomes dignos sobre os riscos representados pela IA?
Duas alunas empreendedoras do MIT, Isabella Struckman e Sofie Kupiec, entraram em contato com os primeiros cem signatários da carta pedindo uma pausa no desenvolvimento da IA para saber mais sobre suas motivações e preocupações. o da dupla redação de suas descobertas revela uma ampla gama de perspectivas entre aqueles que colocam seu nome no documento. Apesar da recepção pública da carta, relativamente poucos estavam realmente preocupados com o fato de a IA representar uma ameaça iminente à própria humanidade.
Muitas das pessoas com quem Struckman e Kupiec conversaram não acreditavam que uma pausa de seis meses aconteceria ou teria muito efeito. A maioria dos que assinaram não imaginou o “cenário apocalíptico” que um entrevistado anônimo reconheceu algumas partes da carta evocada.
Um número significativo daqueles que assinaram estava, ao que parece, principalmente preocupado com o ritmo da competição entre Google, OpenAI, Microsoft e outros, já que o hype em torno do potencial de ferramentas de IA como o ChatGPT atingiu alturas vertiginosas. O Google foi o desenvolvedor original de vários algoritmos essenciais para a criação do chatbot, mas se moveu relativamente devagar até que o ChatGPT-mania se consolidou. Para essas pessoas, a perspectiva de empresas correndo para lançar algoritmos experimentais sem explorar os riscos era motivo de preocupação – não porque eles poderiam acabar com a humanidade, mas porque poderiam espalhar desinformação, produzir conselhos prejudiciais ou tendenciosos ou aumentar a influência e a riqueza de empresas de tecnologia já muito poderosas.
Alguns signatários também se preocuparam com a possibilidade mais distante de a IA deslocar trabalhadores a uma velocidade nunca vista. E alguns também sentiram que a declaração ajudaria a chamar a atenção do público para saltos significativos e surpreendentes no desempenho dos modelos de IA, talvez levando os reguladores a tomar algum tipo de ação para lidar com os riscos de curto prazo representados pelos avanços da IA.
Em maio, conversei com alguns dos que assinaram a carta e ficou claro que nem todos concordavam inteiramente com tudo o que ela dizia. Eles assinaram com a sensação de que o ímpeto por trás da carta chamaria a atenção para os vários riscos que os preocupavam e, portanto, valia a pena apoiar.