PO residente Biden assinou esta semana uma Ordem Executiva abrangente sobre inteligência artificial que busca enfrentar as ameaças representadas pela tecnologia, mas alguns especialistas dizem que o regulamento deixou questões sem resposta sobre como poderia funcionar na prática.
A ordem incumbe as agências de repensarem a sua abordagem à IA e visa enfrentar as ameaças relacionadas com a segurança nacional, a concorrência e a privacidade do consumidor, ao mesmo tempo que promove a inovação, a concorrência e a utilização da IA para serviços públicos.
Um dos elementos mais significativos do pedido é a exigência de que as empresas que desenvolvem os modelos de IA mais poderosos divulguem os resultados dos testes de segurança. Na terça-feira, a secretária de Comércio, Gina Raimondo disse à CNBC que, ao abrigo da Ordem Executiva, “o Presidente instrui o Departamento de Comércio a exigir que as empresas nos digam: quais são as precauções de segurança que estão a implementar e que nos permitam avaliar se isso é suficiente. E planejamos responsabilizar essas empresas.”
As 63 páginas Ordem executiva não expõe, no entanto, as implicações de uma empresa reportar que o seu modelo pode ser perigoso. Os especialistas estão divididos – alguns pensam que a Ordem Executiva apenas melhora a transparência, enquanto outros acreditam que o governo poderia tomar medidas se um modelo fosse considerado inseguro.
Isto levou alguns especialistas a concluir que a Casa Branca se deparou com os limites do poder executivo na abordagem de certas preocupações relacionadas com a IA.
Orientação futura
Em um briefing virtual antes do lançamento da Ordem, um alto funcionário disse que o presidente encarregou sua equipe de encontrar todas as alavancas e acioná-las, de acordo com a participante Helen Toner, diretora de estratégia e bolsas de pesquisa fundamental do Centro de Segurança e Tecnologia Emergente, um grupo de reflexão.
Grande parte da ordem consiste em instruções a outras agências e órgãos para realizar estudos ou desenvolver orientações mais detalhadas. Por exemplo, o Gabinete de Gestão e Orçamento tem 150 dias para emitir orientações às agências federais sobre como podem promover a inovação enquanto gerem os riscos colocados pela IA.
Consulte Mais informação: Especialistas em IA pedem ações políticas para evitar riscos extremos
As ordens executivas dependem de uma implementação bem-sucedida, mas fortes níveis de apoio político dentro do governo federal significam que esta tem mais chances do que a maioria de causar impacto, diz Divyansh Kaushik, diretor associado de tecnologias emergentes e segurança nacional do think tank da Federação. de Cientistas Americanos.
O ex-presidente Donald Trump emitiu seu próprio relatório focado em IA Ordem executiva em 2019, que visava manter a primazia da IA dos EUA. Kaushik diz que sofreu com a falta de apoio concertado por parte dos altos funcionários, resultando em apenas um departamento – o Departamento de Saúde e Serviços Humanos –implementando Política de IA em conformidade com a Ordem Executiva. Em contraste, a Ordem Executiva da Administração Biden “tem a adesão do topo, que tem a adesão do gabinete do Presidente, do gabinete do chefe de gabinete, do gabinete do Vice-Presidente”, diz Kaushik.
Limites de cálculo
Algumas partes da ordem da Administração Biden provavelmente terão um impacto imediato, como as mudanças nas regras relativas à imigração de alta qualificação. Estas visam impulsionar a inovação nos EUA, aumentando a quantidade de talentos disponíveis em IA, alguns dos quais deverão ser criados nos próximos 90 dias.
Outra disposição que poderá ter um impacto mais imediato na indústria da IA é um conjunto de requisitos impostos às empresas que estão a desenvolver ou pretendem desenvolver modelos de base de dupla utilização. Estes modelos são capazes de realizar uma série de tarefas e podem representar uma ameaça à segurança nacional, como o governo do Reino Unido expôs recentemente num documento Publicados antes do AI Safety Summit. As empresas terão de informar o governo dos EUA sobre os seus planos de desenvolvimento de IA, as medidas de segurança – tanto físicas como cibernéticas – que tomaram para proteger os seus modelos de IA e os resultados de quaisquer testes de segurança realizados.
O Secretário do Comércio foi encarregado de definir os modelos de IA que sejam suficientemente perigosos para se qualificarem para estes requisitos. Da forma como está, os especialistas não sabem como fazer isso, diz Paul Scharre, vice-presidente executivo e diretor de estudos do Centro para uma Nova Segurança Americana, um think tank de assuntos militares.
Entretanto, os requisitos aplicar-se-ão a modelos treinados utilizando uma quantidade de poder computacional acima de um limite definido de 100 milhões de mil milhões de mil milhões de operações. Nenhum modelo de IA foi treinado ainda usando tanto poder de computação. O GPT-4 da OpenAI, o modelo de IA mais capaz disponível publicamente, é estimado pela organização de pesquisa Epoch como tendo sido treinado com cinco vezes menos do que essa quantidade. No entanto, a quantidade de poder computacional utilizado para treinar modelos de IA tem duplicado a cada seis meses durante a última década, de acordo com a Epoch.
Um funcionário da administração Biden disse que o limite foi definido de forma que os modelos atuais não seriam capturados, mas a próxima geração de modelos de última geração provavelmente seria, de acordo com Scharre, que também participou do briefing.
O poder computacional é um “representante grosseiro” daquilo que realmente preocupa os decisores políticos – as capacidades do modelo – diz Scharre. Mas Kaushik salienta que a definição de um limiar de computação poderia criar um incentivo para as empresas de IA desenvolverem modelos que alcancem um desempenho semelhante, mantendo ao mesmo tempo o poder computacional abaixo do limiar, especialmente se os requisitos de comunicação ameaçarem comprometer segredos comerciais ou propriedade intelectual.
Limites ao poder presidencial
Mesmo para modelos que ultrapassam o limiar computacional, a Ordem Executiva apenas exige explicitamente que as empresas informem o governo sobre os resultados dos testes de segurança da red-team, que envolvem auditores que tentam de forma adversária descobrir problemas com modelos de IA. Para fornecer justificação jurídica, a Administração Biden invocou a Lei de Produção de Defesa, uma lei que pode permitir ao Presidente influenciar a indústria nacional a fim de promover a segurança nacional.
Não está “totalmente claro” o que aconteceria se uma empresa informasse que o seu modelo de IA falhou nos testes de segurança exigidos, diz Toner, do Centro de Segurança e Tecnologia Emergente.
Consulte Mais informação: A regulamentação federal de IA se aproxima à medida que Schumer organiza o segundo fórum de insights
“A filosofia básica aqui é que há um pequeno número de empresas que estão a construir estes sistemas de IA muito sofisticados, e essas empresas estão a dizer ao governo: ‘Não sabemos o que os nossos sistemas podem fazer e pensamos que podem ser perigosos.’ E isso é meio louco”, diz Toner. “E então o governo está dizendo: ‘Ok, você tem que nos contar mais, temos que estar mais bem informados’”.
Samuel Hammond, economista sénior da Fundação para a Inovação Americana, acredita que o governo interviria, quer para impedir a implantação do modelo, quer mesmo para ordenar a sua eliminação. “O eixo de produção de defesa foi implantado nos últimos anos para forçar as empresas a produzir coisas que não queriam produzir e pode forçar as empresas a interromper a produção de coisas que não querem produzir”, diz Hammond. “Seus poderes são bastante amplos sob a égide da segurança nacional.”
O uso da Lei de Produção de Defesa dos EUA para exigir divulgação já é “muito agressivo” e pode estar aberto a contestação legal por parte dos desenvolvedores de IA, diz Charles Blanchard, sócio do escritório de advocacia Arnold and Porter e ex-conselheiro geral da Força Aérea dos EUA e o Exército. No entanto, ele observa que quase todas as empresas às quais este regulamento se poderia aplicar já estão a trabalhar voluntariamente com o governo em questões de segurança da IA e, portanto, é pouco provável que representem um desafio.
Blanchard diz que se o governo tomasse medidas contra desenvolvedores de modelos de IA inseguros sob a Lei de Produção de Defesa, poderia ter uma base jurídica mais fraca. “Acho que isso seria um exagero e é aí que você pode enfrentar uma contestação legal”, diz ele.
A Casa Branca não respondeu a um pedido de comentário a tempo da publicação.
Toner diz que a ambigüidade em torno da aplicação da lei pós-divulgação é apenas um dos muitos exemplos de como a administração Biden esbarrou nos limites do poder executivo, citando o uso da IA na aplicação da lei e na justiça criminal como outra área onde o poder de agir é “ em grande medida, fora das mãos do poder executivo.”
“Isso é realmente colocar a bola no campo do Congresso para reforçar algumas das coisas aqui que a Casa Branca só pode fazer, uma espécie de versão inicial provisória, e também para lidar com alguns tipos de problemas que o poder executivo simplesmente não consegue resolver. por conta própria”, diz ela.