Quando o ChatGPT da OpenAI conquistou o mundo no ano passado, pegou de surpresa muitos corretores poderosos no Vale do Silício e em Washington, DC. O governo dos EUA deve agora ser avisado antecipadamente sobre futuros avanços em IA envolvendo grandes modelos de linguagem, a tecnologia por trás do ChatGPT.
A administração Biden está se preparando para usar o Lei de Produção de Defesa obrigar as empresas de tecnologia a informar o governo quando treinarem um modelo de IA usando uma quantidade significativa de poder computacional. A regra pode entrar em vigor já na próxima semana.
O novo requisito dará ao governo dos EUA acesso a informações importantes sobre alguns dos projetos mais sensíveis dentro da OpenAI, Google, Amazon e outras empresas de tecnologia que competem em IA. As empresas também terão de fornecer informações sobre os testes de segurança realizados nas suas novas criações de IA.
A OpenAI tem sido tímida sobre quanto trabalho foi feito em um sucessor de sua principal oferta atual, o GPT-4. O governo dos EUA pode ser o primeiro a saber quando os testes de trabalho ou de segurança realmente começam no GPT-5. A OpenAI não respondeu imediatamente a um pedido de comentário.
“Estamos usando a Lei de Produção de Defesa, que é autoridade que temos por causa do presidente, para fazer uma pesquisa exigindo que as empresas compartilhem conosco sempre que treinarem um novo modelo de linguagem grande e compartilhem conosco os resultados – a segurança dados – para que possamos revisá-los”, disse Gina Raimondo, secretária de comércio dos EUA, na sexta-feira, em um evento realizado na Universidade de Stanford. Instituição Hoover. Ela não disse quando a exigência entrará em vigor ou que medidas o governo poderá tomar com base nas informações recebidas sobre projetos de IA. Mais detalhes devem ser anunciados na próxima semana.
As novas regras estão a ser implementadas como parte de uma ordem executiva abrangente da Casa Branca emitida em Outubro passado. O ordem executiva deu ao Departamento de Comércio o prazo de 28 de janeiro para apresentar um esquema pelo qual as empresas seriam obrigadas a informar as autoridades dos EUA sobre detalhes sobre novos e poderosos modelos de IA em desenvolvimento. A ordem dizia que esses detalhes deveriam incluir a quantidade de poder de computação usada, informações sobre a propriedade dos dados fornecidos ao modelo e detalhes dos testes de segurança.
A ordem de outubro exige que se comece a trabalhar na definição de quando os modelos de IA devem exigir relatórios ao Departamento de Comércio, mas estabelece um limite inicial de 100 septilhões (um milhão de bilhões de bilhões ou 1026) operações de ponto flutuante por segundo, ou flops, e um nível 1.000 vezes menor para grandes modelos de linguagem que trabalham em dados de sequenciamento de DNA. Nem a OpenAI nem o Google divulgaram quanto poder de computação usaram para treinar seus modelos mais poderosos, GPT-4 e Gemini, respectivamente, mas um serviço de pesquisa do Congresso relatório na ordem executiva sugere que 1026 flops está um pouco além do que foi usado para treinar o GPT-4.
Raimondo também confirmou que o Departamento de Comércio implementará em breve outro requisito da ordem executiva de outubro que exige que provedores de computação em nuvem como Amazon, Microsoft e Google informem o governo quando uma empresa estrangeira usar seus recursos para treinar um grande modelo de linguagem. Os projetos estrangeiros devem ser comunicados quando ultrapassarem o mesmo limite inicial de 100 septilhões de fracassos.