Home Saúde Exclusivo: Especialistas renomados escrevem apoio ao projeto de lei de segurança de IA da Califórnia

Exclusivo: Especialistas renomados escrevem apoio ao projeto de lei de segurança de IA da Califórnia

Por Humberto Marchezini


OEm 7 de agosto, um grupo de professores renomados foi coautor de uma carta pedindo que os principais legisladores apoiassem um projeto de lei de IA da Califórnia, à medida que ele entra nos estágios finais do processo legislativo do estado. Em uma carta compartilhada exclusivamente com a TIME, Yoshua Bengio, Geoffrey Hinton, Lawrence Lessig e Stuart Russell argumentam que a próxima geração de sistemas de IA apresenta “riscos graves” se “desenvolvida sem cuidado e supervisão suficientes”, e descrevem o projeto de lei como o “mínimo para uma regulamentação eficaz desta tecnologia”.

O projeto de lei, intitulado Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, foi apresentado pelo senador Scott Wiener em fevereiro deste ano. Ele exige que empresas de IA treinem modelos em larga escala para conduzir testes de segurança rigorosos para capacidades potencialmente perigosas e implementar medidas de segurança abrangentes para mitigar riscos.

“Há menos regulamentações sobre sistemas de IA que podem representar riscos catastróficos do que sobre lanchonetes ou cabeleireiros”, escrevem os quatro especialistas.

A carta é endereçada aos respectivos líderes dos órgãos legislativos pelos quais o projeto de lei deve passar para se tornar lei: Mike McGuire, presidente pro tempore do senado da Califórnia, onde o projeto de lei foi aprovado em maio; Robert Rivas, presidente da assembleia estadual, onde o projeto de lei será votado no final deste mês; e o governador estadual Gavin Newsom, que — se o projeto de lei for aprovado na assembleia — deve assinar ou vetar a legislação proposta até o final de setembro.

Com o Congresso engarrafado e os republicanos prometendo reverter a ordem executiva de IA de Biden se eleito em novembro, a Califórnia — a quinta maior economia do mundo e lar de muitos dos principais desenvolvedores de IA do mundo — desempenha o que os autores veem como um “papel indispensável” na regulamentação da IA. Se aprovado, o projeto de lei se aplicaria a todas as empresas que operam no estado.

Enquanto enquetes sugerem que o projeto de lei é apoiado pela maioria dos californianos, mas tem sido alvo de forte oposição de grupos da indústria e investidores em tecnologia, que alegam que ele sufocaria a inovação, prejudicaria a comunidade de código aberto e “deixe a China assumir a liderança no desenvolvimento da IA.” A empresa de capital de risco Andreessen Horowitz tem sido particularmente crítica em relação ao projeto de lei, criando uma local na rede Internet que incita os cidadãos a escreverem ao legislativo em oposição. Outros, como a incubadora de startups YCombinatorCientista Chefe de IA da Meta Yann LeCune professor de Stanford Fei-Fei Li (cuja nova startup de US$ 1 bilhão recebeu financiamento de Andreessen Horowitz) também se manifestaram abertamente em sua oposição.

A resistência se concentrou em provisões no projeto de lei que obrigariam os desenvolvedores a fornecer garantias razoáveis ​​de que um modelo de IA não representaria risco irracional de causar “danos críticos”, como auxiliar na criação de armas de destruição em massa ou causar danos graves à infraestrutura crítica. O projeto de lei se aplicaria apenas a sistemas que custam mais de US$ 100 milhões para treinar e são treinados usando uma quantidade de poder de computação acima de um limite especificado. Esses requisitos duplos implicam que o projeto de lei provavelmente afetaria apenas os maiores desenvolvedores de IA. “Nenhum sistema existente atualmente seria classificado”, disse Lennart Heim, pesquisador do Centro de Política de Tecnologia e Segurança da RAND Corporation, à TIME em junho.

“Como alguns dos especialistas que mais entendem desses sistemas, podemos dizer com segurança que esses riscos são prováveis ​​e significativos o suficiente para tornar necessários testes de segurança e precauções de senso comum”, escrevem os autores da carta. Bengio e Hinton, que têm suportado anteriormente o projeto de lei, são ambos vencedores do Prêmio Turing e frequentemente chamados de “padrinhos da IA”, ao lado de Yann LeCun. Russell escreveu um livro didático—Inteligência Artificial: Uma Abordagem Moderna-aquilo é amplamente considerado para ser o livro-texto padrão sobre IA. E Lessig, um professor de Direito em Harvard, é amplamente considerado uma figura fundadora da lei da Internet e um pioneiro no movimento da cultura livre, tendo fundado o Creative Commons e escrito livros influentes sobre direitos autorais e direito da tecnologia. Além dos riscos observados acima, eles citam riscos impostos por agentes autônomos de IA que poderiam agir sem supervisão humana entre suas preocupações.

Consulte Mais informação: Yoshua Bengio está na lista TIME100 de 2024

“Preocupo-me que as empresas de tecnologia não resolvam esses riscos significativos por si mesmas enquanto estão presas em sua corrida por participação de mercado e maximização de lucro. É por isso que precisamos de algumas regras para aqueles que estão na fronteira dessa corrida”, Bengio disse à TIME por e-mail.

A carta rejeita a noção de que o projeto de lei prejudicaria a inovação, afirmando que, tal como está escrito, o projeto de lei só se aplica aos maiores modelos de IA; que os grandes desenvolvedores de IA já fizeram compromissos voluntários para empreender muitas das medidas de segurança descritas no projeto de lei; e que regulamentações semelhantes na Europa e na China são de fato mais restritivas do que o SB 1047. Ele também elogia o projeto de lei por suas “proteções robustas para denunciantes” para funcionários de laboratórios de IA que relatam preocupações de segurança, que são cada vez mais vistas como necessário dado relatórios de comportamento imprudente por parte de alguns laboratórios.

Em uma entrevista com Vox no mês passado, o senador Wiener observou que o projeto de lei já foi alterado em resposta às críticas da comunidade de código aberto. A versão atual isenta os desenvolvedores originais dos requisitos de desligamento quando um modelo não está mais sob seu controle e limita sua responsabilidade quando outros fazem modificações significativas em seus modelos, tratando efetivamente versões significativamente modificadas como novos modelos. Apesar disso, alguns críticos acreditam que o projeto de lei exigiria que os modelos de código aberto tivessem um “interruptor de segurança”.

“Em relação à escala de riscos que enfrentamos, esta é uma peça legislativa notavelmente leve”, diz a carta, observando que o projeto de lei não tem um regime de licenciamento ou exige que as empresas recebam permissão de uma agência governamental antes de treinar um modelo, e depende de autoavaliações de risco. Os autores escrevem ainda: “Seria um erro histórico eliminar as medidas básicas deste projeto de lei.”

Por e-mail, Lessig acrescenta: “O governador Newsom terá a oportunidade de consolidar a Califórnia como pioneira nacional na regulamentação da IA. A legislação na Califórnia atenderia a uma necessidade urgente. Com uma massa crítica das principais empresas de IA sediadas na Califórnia, não há lugar melhor para assumir a liderança inicial na regulamentação dessa tecnologia emergente.”





Source link

Related Articles

Deixe um comentário