Os EUA, o Reino Unido e outros 16 países assinaram um acordo comprometendo-se a tomar medidas para tornar a IA “segura desde a concepção”.
Embora reconhecida como uma declaração básica de princípios, a Agência de Segurança Cibernética e de Infraestrutura dos EUA (CISA) disse que é um primeiro passo importante…
Reuters relatórios.
Os Estados Unidos, a Grã-Bretanha e mais de uma dúzia de outros países revelaram no domingo o que um alto funcionário dos EUA descreveu como o primeiro acordo internacional detalhado sobre como manter a inteligência artificial protegida de atores desonestos, pressionando as empresas a criarem sistemas de IA que sejam “seguros por projeto.”
Num documento de 20 páginas divulgado no domingo, os 18 países concordaram que as empresas que concebem e utilizam IA precisam de desenvolvê-la e implementá-la de uma forma que mantenha os clientes e o público em geral protegidos contra utilização indevida.
A diretora da CISA, Jen Easterly, disse que era importante que os países reconhecessem que o desenvolvimento da IA precisa de uma abordagem que coloque a segurança em primeiro lugar e encorajou outros países a aderirem.
“Esta é a primeira vez que vimos uma afirmação de que essas capacidades não deveriam ser apenas sobre recursos interessantes e a rapidez com que podemos colocá-los no mercado ou como podemos competir para reduzir custos”, disse Easterly à Reuters, dizendo que as diretrizes representam “um acordo de que a coisa mais importante que precisa ser feita na fase de design é a segurança.”
Os outros países que aderiram até agora são Alemanha, Itália, República Checa, Estónia, Polónia, Austrália, Chile, Israel, Nigéria e Singapura.
A Europa deu um passo à frente nesta área, com uma tentativa de criar leis específicas que regem o desenvolvimento e lançamento de novos sistemas de IA – o que incluiria um requisito legal para as empresas realizarem testes de segurança regulares para identificar potenciais vulnerabilidades. No entanto, o progresso nesta matéria tem sido lentolevando França, Alemanha e Itália a procederem um acordo provisório próprio.
A Casa Branca instou o Congresso a desenvolver a regulamentação da IA nos EUA, mas pouco progresso foi feito até à data. O presidente Biden assinou no mês passado uma ordem executiva exigindo que as empresas de IA conduzissem testes de segurança, principalmente voltados para proteger sistemas contra hackers.
O uso de IA pela Apple
A Apple incorporou recursos de IA em seus produtos há muitos anos, principalmente na área de fotografia do iPhone. A empresa desenvolveu seu próprio chatbot – apelidado de Apple GPT – mas até agora só o utiliza dentro da empresa, provavelmente porque deseja aproveitar as vantagens dos recursos generativos de IA para desenvolvimento de software sem comprometer a segurança do produto.
Dada a abordagem tipicamente cautelosa da empresa em relação às novas tecnologias, é provável que demore algum tempo até que a Apple libere algo assim para seus clientes.
A opinião de 9to5Mac
Criar leis destinadas a garantir a segurança dos novos sistemas de IA é incrivelmente difícil.
A própria natureza dos sistemas de IA – que desenvolvem as suas próprias capacidades, em vez de serem especificamente programados para fazer ou não certas coisas – significa que mesmo os investigadores que trabalham num projeto podem não estar totalmente conscientes do que um novo modelo de IA pode alcançar até que seja já completo.
Também é comum haver divergências entre pesquisadores sobre quais são essas capacidadese o que eles podem significar para o futuro.
Este acordo de 20 páginas é incrivelmente básico, mais uma declaração de princípios gerais do que um projecto, mas dados os desafios enfrentados, é provavelmente pelo menos um ponto de partida razoável. Estabelece que as empresas de pesquisa têm a obrigação de procurar especificamente vulnerabilidades de segurança.
No entanto, é importante notar que a iniciativa se preocupa apenas com a forma como os hackers podem tirar vantagem dos sistemas de IA. Não aborda a questão muito mais ampla – e maior – de como os próprios sistemas de IA podem representar uma ameaça para a humanidade.