A inteligência artificial está pronta para entregar enormes benefícios à sociedade. Mas, como muitos apontaram, ela também pode trazer novos horrores sem precedentes. Como uma tecnologia de propósito geral, as mesmas ferramentas que farão avançar a descoberta científica também podem ser usadas para desenvolver armas cibernéticas, químicas ou biológicas. Governar a IA exigirá compartilhar amplamente seus benefícios, mantendo a IA mais poderosa fora das mãos de maus atores. A boa notícia é que já existe um modelo sobre como fazer exatamente isso.
No século XX, as nações construíram instituições internacionais para permitir a disseminação da energia nuclear pacífica, mas desacelerar a proliferação de armas nucleares controlando o acesso às matérias-primas — ou seja, urânio e plutônio de grau militar — que as sustentam. O risco foi administrado por meio de instituições internacionais, como a Tratado de Não Proliferação Nuclear e Agência Internacional de Energia Atômica. Hoje, 32 nações operam usinas nucleares, que coletivamente fornecem 10% da eletricidade mundial, e apenas nove países possuir armas nucleares.
Os países podem fazer algo semelhante para a IA hoje. Eles podem regular a IA do zero, controlando o acesso aos chips altamente especializados que são necessários para treinar os modelos de IA mais avançados do mundo. Líderes empresariais e até mesmo o Secretário-Geral da ONU, António Guterres, chamado para uma estrutura de governança internacional para IA semelhante à da tecnologia nuclear.
Os sistemas de IA mais avançados são treinados em dezenas de milhares de chips de computador altamente especializados. Esses chips são alojados em enormes data centers, onde eles processam dados por meses para treinar os modelos de IA mais capazes. Esses chips avançados são difíceis de produzir, a cadeia de suprimentos é rigidamente controlada e um grande número deles é necessário para treinar modelos de IA.
Os governos podem estabelecer um regime regulatório em que apenas provedores de computação autorizados possam adquirir um grande número de chips avançados em seus data centers, e apenas empresas de IA licenciadas e confiáveis possam acessar o poder de computação necessário para treinar os modelos de IA mais capazes — e mais perigosos.
Isso pode parecer uma tarefa difícil. Mas apenas um punhado de nações é necessário para colocar esse regime de governança em prática. Os chips de computador especializados usados para treinar os modelos de IA mais avançados são feitos apenas em Taiwan. Eles dependem de tecnologia crítica de três países: Japão, Holanda e EUA. Em alguns casos, uma única empresa detém o monopólio de elementos-chave da cadeia de suprimentos de produção de chips. A empresa holandesa ASML é a única produtora mundial de máquinas de litografia ultravioleta extrema que são usadas para fazer os chips mais avançados.
Leia mais: As 100 pessoas mais influentes em IA 2024
Os governos já estão tomando medidas para governar esses chips de alta tecnologia. Os EUA, Japãoe o Holanda ter colocado controles de exportação em seus equipamentos de fabricação de chips, restringindo sua venda para a China. E o governo dos EUA tem Entrada a venda dos chips mais avançados — que são feitos usando tecnologia dos EUA — para a China. O governo dos EUA também proposto requisitos para provedores de computação em nuvem saberem quem são seus clientes estrangeiros e relatarem quando um cliente estrangeiro está treinando um grande modelo de IA que poderia ser usado para ataques cibernéticos. E o governo dos EUA tem começou a debater—mas ainda não colocadas em prática—restrições sobre os modelos de IA treinados mais poderosos e quão amplamente eles podem ser compartilhados. Embora algumas dessas restrições sejam sobre competição geopolítica com a China, as mesmas ferramentas podem ser usadas para governar chips para impedir que nações adversárias, terroristas ou criminosos usem os sistemas de IA mais poderosos.
Os EUA podem trabalhar com outras nações para desenvolver essa base e colocar em prática uma estrutura para governar o hardware de computação durante todo o ciclo de vida de um modelo de IA: equipamentos de fabricação de chips, chips, data centers, modelos de treinamento de IA e os modelos treinados que são o resultado desse ciclo de produção.
O Japão, a Holanda e os EUA podem ajudar a liderar a criação de uma estrutura de governança global que permita que esses chips altamente especializados sejam vendidos apenas para países que tenham estabelecido regimes regulatórios para governar hardware de computação. Isso incluiria rastrear chips e mantê-los em conta, saber quem os está usando e garantir que o treinamento e a implantação de IA sejam seguros e protegidos.
Mas a governança global do hardware de computação pode fazer mais do que simplesmente manter a IA fora das mãos de maus atores — ela pode capacitar inovadores ao redor do mundo ao diminuir a divisão entre os que têm e os que não têm computação. Como os requisitos de computação para treinar os modelos de IA mais avançados são tão intensos, a indústria está se movendo em direção a um oligopólio. Esse tipo de concentração de poder não é bom para a sociedade ou para os negócios.
Algumas empresas de IA, por sua vez, começaram a divulgar publicamente seus modelos. Isso é ótimo para a inovação científica e ajuda a nivelar o campo de jogo com a Big Tech. Mas, uma vez que o modelo de IA é de código aberto, ele pode ser modificado por qualquer um. As proteções podem ser rapidamente removidas.
O governo dos EUA felizmente começou a pilotar recursos nacionais de computação em nuvem como um bem público para acadêmicos, pequenas empresas e startups. Modelos poderosos de IA poderiam ser disponibilizados por meio da nuvem nacional, permitindo que pesquisadores e empresas confiáveis os usem sem liberar os modelos na internet para todos, onde eles poderiam ser abusados.
Os países poderiam até se unir para construir um recurso internacional para cooperação científica global em IA. Hoje, 23 nações participam do CERN, o laboratório internacional de física que opera o acelerador de partículas mais avançado do mundo. As nações devem fazer o mesmo para a IA, criando um recurso de computação global para cientistas colaborarem na segurança da IA, capacitando cientistas ao redor do mundo.
O potencial da IA é enorme. Mas para desbloquear os benefícios da IA, a sociedade também terá que gerenciar seus riscos. Ao controlar as entradas físicas da IA, as nações podem governar a IA com segurança e construir uma base para um futuro seguro e próspero. É mais fácil do que muitos pensam.