Ontem, 28 países, incluindo os EUA, membros da UE e a China assinou uma declaração alertando que a inteligência artificial está avançando com tal velocidade e incerteza que pode causar “danos graves, até mesmo catastróficos”.
A declaração, anunciada na Cúpula de Segurança da IA organizada pelo governo britânico e realizada no histórico local de decifração de códigos da Segunda Guerra Mundial, Parque Bletchleytambém apela à colaboração internacional para definir e explorar os riscos do desenvolvimento de modelos de IA mais poderosos, incluindo grandes modelos de linguagem, como os que alimentam chatbots como o ChatGPT.
“Esta é uma conquista histórica que faz com que as maiores potências de IA do mundo concordem sobre a urgência por trás da compreensão dos riscos da IA – ajudando a garantir o futuro a longo prazo dos nossos filhos e netos”, disse o primeiro-ministro do Reino Unido, Rishi Sunak, num comunicado. .
O local da Cúpula homenageou Alan Turing, o matemático britânico que fez um trabalho fundamental em computação e IA e que ajudou os Aliados a quebrar os códigos nazistas durante a Segunda Guerra Mundial, desenvolvendo os primeiros dispositivos de computação. (Um governo anterior do Reino Unido pediu desculpas em 2009 pela forma como Turing foi processado por ser gay em 1952.)
No entanto, o hype-train da IA tem um talento especial para transformar até mesmo aliados próximos em concorrentes. A tinta da declaração voltada para o futuro mal estava seca antes de os EUA afirmarem o seu papel de liderança no desenvolvimento e orientação da IA, como afirmou a vice-presidente Kamala Harris. entregou um aviso de discurso que os perigos da IA – incluindo deepfakes e algoritmos tendenciosos – já estão aqui. A Casa Branca anunciou uma ordem executiva abrangente destinada a estabelecer regras para governar e regulamentar a IA no início desta semana, e ontem delineou novas regras para evitar que algoritmos governamentais causem danos.
“Quando um idoso é expulso de seu plano de saúde por causa de um algoritmo de IA defeituoso, isso não é existencial para ele?” Harris disse. “Quando uma mulher é ameaçada por um parceiro abusivo com fotografias explícitas e falsas, isso não é existencial para ela?”
O coquetel de colaboração e competição que ocorre no Reino Unido decorre das capacidades notáveis, surpreendentes e um pouco assustadoras que os grandes modelos de linguagem demonstraram apenas no ano passado. A IA provou ser capaz de fazer coisas que muitos especialistas pensavam que permaneceriam impossíveis nos próximos anos. Isto sugere a alguns investigadores que os sistemas com capacidade de replicar algo semelhante ao tipo de inteligência geral que os humanos consideram natural podem subitamente estar muito mais próximos.
Os principais especialistas em IA estiveram em Londres esta semana em antecipação à cimeira. As pessoas que conheci incluíram Yoshua Bengio, um pioneiro da aprendizagem profunda que afirma ter a missão de alertar os governos sobre os riscos de uma IA mais avançada; Percy Liang, que lidera o Centro de Pesquisa em Modelos Fundamentais de Stanford; Rumman Chowdhury, especialista em sistemas de IA “red teaming” para vulnerabilidades, que me disse que esta ainda é uma disciplina incipiente; e Demis Hassabis, que como CEO do Google DeepMind lidera os projetos de IA do gigante das buscas. Ele argumenta que a humanidade tem apenas um período limitado de tempo para garantir que a IA reflita os nossos melhores interesses e não os nossos piores comportamentos.