Armas biológicas mortais, ataques automatizados de segurança cibernética, modelos poderosos de IA que escapam ao controle humano. Essas são apenas algumas das ameaças potenciais representadas pela inteligência artificial, de acordo com um novo governo do Reino Unido relatório. Foi lançado para ajudar a definir a agenda de uma cúpula internacional sobre segurança de IA que será realizada no Reino Unido na próxima semana. O relatório foi compilado com informações de empresas líderes de IA, como a unidade DeepMind do Google e vários departamentos governamentais do Reino Unido, incluindo agências de inteligência.
Joe White, enviado tecnológico do Reino Unido aos EUA, afirma que a cimeira oferece uma oportunidade para reunir países e empresas líderes de IA para compreender melhor os riscos representados pela tecnologia. Gerenciar as possíveis desvantagens dos algoritmos exigirá a colaboração orgânica à moda antiga, diz White, que ajudou a planejar a cúpula da próxima semana. “Esses não são desafios entre máquinas e humanos”, diz White. “Esses são desafios de humano para humano.”
O primeiro-ministro do Reino Unido, Rishi Sunak, fará um discurso amanhã sobre como, embora a IA abra oportunidades para o avanço da humanidade, é importante ser honesto sobre os novos riscos que cria para as gerações futuras.
O Reino Unido Cúpula de Segurança de IA acontecerá nos dias 1 e 2 de novembro e se concentrará principalmente nas maneiras pelas quais as pessoas podem usar indevidamente ou perder o controle de formas avançadas de IA. Alguns especialistas e executivos em IA no Reino Unido criticaram o foco do evento, dizendo que o governo deveria priorizar preocupações mais de curto prazo, como ajudar o Reino Unido a competir com líderes globais de IA, como os EUA e a China.
Alguns especialistas em IA alertaram que um recente aumento na discussão sobre cenários distantes de IA, incluindo a possibilidade de extinção humana, poderia distrair os reguladores e o público de problemas mais imediatos, como algoritmos tendenciosos ou tecnologia de IA que fortalece empresas já dominantes.
O relatório do Reino Unido divulgado hoje considera as implicações para a segurança nacional de grandes modelos de linguagem, a tecnologia de IA por trás do ChatGPT. White diz que as agências de inteligência do Reino Unido estão trabalhando com o Força-Tarefa Frontier AI, um grupo de especialistas do governo do Reino Unido, para explorar cenários como o que poderia acontecer se os malfeitores combinassem um grande modelo de linguagem com documentos governamentais secretos. Uma possibilidade catastrófica discutida no relatório sugere que um grande modelo de linguagem que acelere a descoberta científica também poderia impulsionar projectos que tentam criar armas biológicas.
Em julho deste ano, Dario Amodei, CEO da startup de IA Antrópico, disse aos membros do Senado dos EUA que nos próximos dois ou três anos seria possível que um modelo de linguagem sugerisse como realizar ataques com armas biológicas em grande escala. Mas White diz que o relatório é um documento de alto nível que não se destina a “servir como uma lista de compras de todas as coisas más que podem ser feitas”.
Além de agências governamentais do Reino Unido, o relatório divulgado hoje foi revisado por um painel que inclui especialistas em política e ética do laboratório DeepMind AI do Google, que começou como uma startup de IA em Londres e foi adquirido pela empresa de buscas em 2014, e Hugging Face, uma startup desenvolvendo software de IA de código aberto.
Yoshua Bengio, um dos três “padrinhos da IA” que ganhou o maior prémio da computação, o Prémio Turing, pelas técnicas de aprendizagem automática fundamentais para o actual boom da IA, também foi consultado. Bengio disse recentemente que o seu optimismo sobre a tecnologia que ajudou a promover azedou e que é necessária uma nova organização de “defesa da humanidade” para ajudar a manter a IA sob controlo.