O governo dos EUA emitiu novas regras na quinta-feira exigindo mais cautela e transparência das agências federais que usam inteligência artificial, dizendo que são necessárias para proteger o público à medida que a IA avança rapidamente. Mas a nova política também contém disposições para incentivar a inovação da IA nas agências governamentais quando a tecnologia puder ser utilizada para o bem público.
Os EUA esperam emergir como um líder internacional com o seu novo regime de IA governamental. A vice-presidente Kamala Harris disse durante uma coletiva de imprensa antes do anúncio que o governo planeja que as políticas “servem de modelo para ação global”. Ela disse que os EUA “continuarão a apelar a todas as nações para que sigam a nossa liderança e coloquem o interesse público em primeiro lugar quando se trata do uso governamental da IA”.
A nova política do Escritório de Gestão e Orçamento da Casa Branca orientará o uso da IA em todo o governo federal. Requer mais transparência na forma como o governo utiliza a IA e também exige um maior desenvolvimento da tecnologia nas agências federais. A política vê a administração a tentar encontrar um equilíbrio entre a mitigação dos riscos decorrentes de uma utilização mais profunda da IA – cuja extensão não é conhecida – e a utilização de ferramentas de IA para resolver ameaças existenciais como as alterações climáticas e as doenças.
O anúncio se soma a uma série de medidas da administração Biden para adotar e restringir a IA. Em Outubro, o Presidente Biden assinou uma ordem executiva abrangente sobre IA que promoveria a expansão da tecnologia de IA por parte do governo, mas também exigiria que aqueles que fabricam grandes modelos de IA fornecessem ao governo informações sobre as suas actividades, no interesse da segurança nacional.
Em Novembro, os EUA juntaram-se ao Reino Unido, à China e aos membros da UE na assinatura de uma declaração que reconhecia os perigos dos rápidos avanços da IA, mas também apelava à colaboração internacional. Harris revelou na mesma semana uma declaração não vinculativa sobre o uso militar de IA, assinada por 31 nações. Estabelece barreiras de proteção rudimentares e apela à desativação de sistemas que se envolvam em “comportamento não intencional”.
A nova política para o uso de IA pelo governo dos EUA, anunciada na quinta-feira, pede às agências que tomem várias medidas para evitar consequências não intencionais das implantações de IA. Para começar, as agências devem verificar se as ferramentas de IA que utilizam não colocam os americanos em risco. Por exemplo, para que o Departamento de Assuntos de Veteranos utilize IA nos seus hospitais, deve verificar se a tecnologia não dá diagnósticos tendenciosos racialmente. A investigação descobriu que os sistemas de IA e outros algoritmos utilizados para informar o diagnóstico ou decidir quais os pacientes que recebem cuidados podem reforçar padrões históricos de discriminação.
Se uma agência não puder garantir tais salvaguardas, deve parar de utilizar o sistema de IA ou justificar a sua utilização continuada. As agências dos EUA enfrentam o prazo de 1º de dezembro para cumprir esses novos requisitos.
A política também pede mais transparência sobre os sistemas governamentais de IA, exigindo que as agências divulguem modelos, dados e códigos de IA de propriedade do governo, desde que a divulgação de tais informações não represente uma ameaça ao público ou ao governo. As agências devem reportar publicamente todos os anos como estão a utilizar a IA, os riscos potenciais que os sistemas representam e como esses riscos estão a ser mitigados.
E as novas regras também exigem que as agências federais reforcem os seus conhecimentos em IA, obrigando cada uma a nomear um diretor de IA para supervisionar toda a IA utilizada nessa agência. É uma função que se concentra na promoção da inovação em IA e também na observação dos seus perigos.
As autoridades dizem que as mudanças também removerão algumas barreiras ao uso de IA em agências federais, uma medida que pode facilitar uma experimentação mais responsável com IA. A tecnologia tem o potencial de ajudar as agências a analisar os danos resultantes de desastres naturais, prever condições meteorológicas extremas, mapear a propagação de doenças e controlar o tráfego aéreo.
Países ao redor do mundo estão se movimentando para regulamentar a IA. A UE votou em dezembro para aprovar a sua Lei de IA, uma medida que rege a criação e utilização de tecnologias de IA, e formalmente adotado isso no início deste mês. A China também está a trabalhar regulamentação abrangente de IA.