Mesmo o algoritmo de inteligência artificial mais inteligente e astuto provavelmente terá que obedecer às leis do silício. Suas capacidades serão limitadas pelo hardware em que está sendo executado.
Alguns investigadores estão a explorar formas de explorar essa ligação para limitar o potencial dos sistemas de IA de causar danos. A ideia é codificar regras que regem o treinamento e a implantação de algoritmos avançados diretamente nos chips de computador necessários para executá-los.
Em teoria – a esfera onde reside actualmente muito debate sobre a IA perigosamente poderosa – isto pode fornecer uma nova forma poderosa de impedir que nações desonestas ou empresas irresponsáveis desenvolvam secretamente IA perigosa. E é mais difícil de escapar do que as leis ou tratados convencionais. Um relatório publicado no início deste mês pela Centro para a Nova Segurança Americanaum influente think tank de política externa dos EUA, descreve como o silício cuidadosamente restringido pode ser aproveitado para impor uma série de controles de IA.
Alguns chips já apresentam componentes confiáveis projetados para proteger dados confidenciais ou contra uso indevido. Os iPhones mais recentes, por exemplo, mantêm as informações biométricas de uma pessoa em um “enclave seguro.” O Google usa um chip personalizado em seus servidores em nuvem para garantir que nada foi adulterado.
O artigo sugere aproveitar recursos semelhantes incorporados às GPUs – ou gravar novos em chips futuros – para evitar que projetos de IA acessem mais do que uma certa quantidade de poder de computação sem licença. Porque é necessário um grande poder de computação para treinar os algoritmos de IA mais poderosos, como os que estão por trás do ChatGPT, isso limitaria quem pode construir os sistemas mais poderosos.
O CNAS afirma que as licenças podem ser emitidas por um governo ou regulador internacional e atualizadas periodicamente, tornando possível cortar o acesso à formação em IA ao recusar uma nova. “Você poderia projetar protocolos de modo que só pudesse implantar um modelo se tivesse executado uma avaliação específica e obtido uma pontuação acima de um determinado limite – digamos, para segurança”, diz Tim Fist, pesquisador do CNAS e um dos três autores do o papel.
Alguns luminares da IA temem que a IA esteja agora a tornar-se tão inteligente que um dia poderá revelar-se indisciplinada e perigosa. Mais imediatamente, alguns especialistas e governos receiam que mesmo os modelos de IA existentes possam facilitar o desenvolvimento de armas químicas ou biológicas ou a automatização do crime cibernético. Washington já impôs uma série de controles de exportação de chips de IA para limitar o acesso da China à IA mais avançada, temendo que ela pudesse ser usada para fins militares – embora o contrabando e a engenharia inteligente tenham fornecido alguns maneiras de contorná-los. A Nvidia não quis comentar, mas a empresa perdeu bilhões de dólares em pedidos da China devido aos últimos controles de exportação dos EUA.
Fist of CNAS afirma que embora as restrições à codificação no hardware do computador possam parecer extremas, há precedentes no estabelecimento de infra-estruturas para monitorizar ou controlar tecnologias importantes e fazer cumprir tratados internacionais. “Se pensarmos na segurança e na não-proliferação nuclear, as tecnologias de verificação foram absolutamente fundamentais para garantir os tratados”, afirma Fist, do CNAS. “A rede de sismógrafos que temos agora para detectar testes nucleares subterrâneos sustenta tratados que dizem que não devemos testar armas subterrâneas acima de um certo limite de quilotons.”
As ideias apresentadas pelo CNAS não são inteiramente teóricas. Os importantes chips de treinamento de IA da Nvidia – cruciais para construir os modelos de IA mais poderosos – já vêm com módulos criptográficos seguros. E em novembro de 2023, pesquisadores do Instituto Futuro da Vidauma organização sem fins lucrativos dedicada a proteger a humanidade de ameaças existenciais, e Segurança Mithriluma startup de segurança, criou uma demonstração que mostra como o módulo de segurança de uma CPU Intel pode ser usado para um esquema criptográfico que pode restringir o uso não autorizado de um modelo de IA.