Enquanto o mundo debate o que é certo e o que é errado sobre IA generativa, a Assembleia e o Senado do Estado da Califórnia acabaram de aprovar o projeto de lei Safe and Protected Innovation for Frontier Artificial Intelligence Models Act (SB 1047), que é uma das primeiras regulamentações significativas para IAs nos Estados Unidos.
Califórnia quer regulamentar IAs com novo projeto de lei
A conta, que foi votado na quinta-feira (via A Beira), tem sido objeto de debate no Vale do Silício, pois essencialmente exige que as empresas de IA que operam na Califórnia implementem uma série de precauções antes de treinar um “modelo de base sofisticado”.
Com a nova lei, os desenvolvedores terão que garantir que podem desligar rápida e completamente um modelo de IA se ele for considerado inseguro. Os modelos de linguagem também precisarão ser protegidos contra “modificações pós-treinamento inseguras” ou qualquer coisa que possa causar “dano crítico”. Os senadores descrevem o projeto de lei como “salvaguardas para proteger a sociedade” do uso indevido da IA.
O professor Hinton, ex-líder de IA do Google, elogiou o projeto de lei por considerar que os riscos de sistemas de IA poderosos são “muito reais e devem ser levados extremamente a sério”.
No entanto, empresas como a OpenAI e até mesmo pequenos desenvolvedores criticaram o projeto de lei de segurança de IA, pois ele estabelece potenciais penalidades criminais para aqueles que não o cumprem. Alguns argumentam que o projeto de lei prejudicará os desenvolvedores independentes, que precisarão contratar advogados e lidar com a burocracia ao trabalhar com modelos de IA.
O governador Gavin Newsom agora tem até o final de setembro para decidir se aprova ou veta o projeto de lei.
Apple e outras empresas se comprometem com regras de segurança de IA
No início deste ano, a Apple e outras empresas de tecnologia como Amazon, Google, Meta e OpenAI concordaram com um conjunto de regras voluntárias de segurança de IA estabelecidas pela administração Biden. As regras de segurança descrevem compromissos para testar o comportamento dos sistemas de IA, garantindo que eles não exibam tendências discriminatórias ou tenham preocupações de segurança.
Os resultados dos testes conduzidos devem ser compartilhados com governos e academia para revisão por pares. Pelo menos por enquanto, as diretrizes de IA da Casa Branca não são aplicáveis por lei.
A Apple, é claro, tem grande interesse em tais regulamentações, pois a empresa vem trabalhando nos recursos do Apple Intelligence, que serão lançados ao público ainda este ano com o iOS 18.1 e o macOS Sequoia 15.1.
Vale ressaltar que os recursos do Apple Intelligence exigem uma iPhone 15 Pro ou posteriorou iPads e Macs com o chip M1 ou posterior.
FTC: Usamos links de afiliados automáticos para geração de renda. Mais.