Home Tecnologia Com ordem executiva, Casa Branca tenta equilibrar o potencial e o perigo da IA

Com ordem executiva, Casa Branca tenta equilibrar o potencial e o perigo da IA

Por Humberto Marchezini


Como regular algo que tem o potencial de ajudar e prejudicar as pessoas, que afecta todos os sectores da economia e que está a mudar tão rapidamente que nem os especialistas conseguem acompanhar?

Esse tem sido o principal desafio dos governos quando se trata de inteligência artificial.

Regular a IA muito lentamente e você poderá perder a chance de evitar perigos potenciais e usos indevidos perigosos da tecnologia.

Reaja demasiado rapidamente e corre o risco de escrever regras más ou prejudiciais, de sufocar a inovação ou de acabar numa posição como a da União Europeia. Lançou pela primeira vez a sua Lei de IA em 2021, pouco antes da chegada de uma onda de novas ferramentas generativas de IA, tornando grande parte da lei obsoleta. (A proposta, que ainda não foi transformada em lei, foi posteriormente reescrita para calçar algumas das novas tecnologias, mas ainda é um pouco estranha.)

Na segunda-feira, a Casa Branca anunciou a sua própria tentativa de governar o mundo em rápida evolução da IA ​​com uma ordem executiva abrangente que impõe novas regras às empresas e orienta uma série de agências federais a começarem a colocar barreiras de proteção à tecnologia.

A administração Biden, tal como outros governos, tem estado sob pressão para fazer algo em relação à tecnologia desde o final do ano passado, quando o ChatGPT e outras aplicações generativas de IA surgiram na consciência pública. As empresas de IA têm enviado executivos para testemunhar perante o Congresso e informar os legisladores sobre as promessas e as armadilhas da tecnologia, enquanto grupos ativistas instam o governo federal a reprimir os usos perigosos da IA, como a fabricação de novas armas cibernéticas e a criação de deepfakes enganosos.

Além disso, eclodiu uma batalha cultural em Silicon Valley, à medida que alguns investigadores e especialistas instam a indústria da IA ​​a abrandar e outros pressionam pela sua aceleração total.

A ordem executiva do presidente Biden tenta traçar um caminho intermédio – permitindo que o desenvolvimento da IA ​​continue praticamente imperturbado, ao mesmo tempo que estabelece algumas regras modestas e sinaliza que o governo federal pretende manter um olhar atento sobre a indústria da IA ​​nos próximos anos. Em contraste com as redes sociais, uma tecnologia que teve permissão para crescer sem impedimentos durante mais de uma década antes de os reguladores demonstrarem qualquer interesse nela, isso mostra que a administração Biden não tem intenção de deixar a IA passar despercebida.

O ordem executiva completaque tem mais de 100 páginas, parece ter algo para quase todo mundo.

Os mais preocupados defensores da segurança da IA ​​– como aqueles que assinaram uma carta aberta este ano alegando que a IA representa um “risco de extinção” semelhante a pandemias e armas nucleares – ficarão felizes com o facto de a ordem impor novos requisitos às empresas que constroem poderosos sistemas de IA. .

Em particular, as empresas que fabricam os maiores sistemas de IA serão obrigadas a notificar o governo e a partilhar os resultados dos seus testes de segurança antes de divulgarem os seus modelos ao público.

Esses requisitos de relatórios serão aplicados a modelos acima de um certo limite de poder computacional – mais de 100 septilhões de operações inteiras ou de ponto flutuante, se você estiver curioso – que provavelmente incluirão modelos de próxima geração desenvolvidos pela OpenAI, Google e outras grandes empresas. desenvolvendo tecnologia de IA.

Estes requisitos serão aplicados através da Lei de Produção de Defesa, uma lei de 1950 que dá ao presidente ampla autoridade para obrigar as empresas dos EUA a apoiar esforços considerados importantes para a segurança nacional. Isso poderia dar às regras uma força que faltava aos compromissos voluntários anteriores da administração em matéria de IA.

Além disso, a ordem exigirá que os provedores de nuvem que alugam computadores para desenvolvedores de IA – uma lista que inclui Microsoft, Google e Amazon – informem ao governo sobre seus clientes estrangeiros. E instrui o Instituto Nacional de Padrões e Tecnologia a elaborar testes padronizados para medir o desempenho e a segurança dos modelos de IA.

A ordem executiva também contém algumas disposições que irão agradar ao grupo de ética da IA ​​– um grupo de ativistas e pesquisadores que se preocupam com os danos da IA ​​no curto prazo, como preconceito e discriminação, e que pensam que os temores de extinção da IA ​​no longo prazo são exagerados. .

Em particular, a ordem orienta as agências federais a tomarem medidas para evitar que algoritmos de IA sejam usados ​​para exacerbar a discriminação na habitação, nos programas de benefícios federais e no sistema de justiça criminal. E orienta o Departamento de Comércio a apresentar orientações para colocar marcas d’água em conteúdo gerado por IA, o que poderia ajudar a reprimir a disseminação de desinformação gerada por IA.

E o que as empresas de IA, alvos dessas regras, pensam delas? Vários executivos com quem falei na segunda-feira pareciam aliviados pelo facto de a ordem da Casa Branca não ter exigido que se registassem para obter uma licença para treinar grandes modelos de IA, uma medida proposta que alguns na indústria criticaram como draconiana. Também não lhes exigirá que retirem do mercado nenhum dos seus actuais produtos, nem os forçará a divulgar os tipos de informação que têm procurado manter privados, tais como o tamanho dos seus modelos e os métodos utilizados para os treinar.

Também não tenta restringir o uso de dados protegidos por direitos autorais no treinamento de modelos de IA – uma prática comum que tem sido atacada por artistas e outros trabalhadores criativos nos últimos meses e está sendo litigada nos tribunais.

E as empresas de tecnologia se beneficiarão das tentativas do decreto de afrouxar as restrições à imigração e agilizar o processo de visto para trabalhadores com experiência especializada em IA como parte de um país “Aumento de talentos em IA.”

Nem todos ficarão emocionados, é claro. Os activistas de segurança mais radicais talvez desejassem que a Casa Branca tivesse colocado limites mais rigorosos à utilização de grandes modelos de IA, ou que tivesse bloqueado o desenvolvimento de modelos de código aberto, cujo código pode ser descarregado gratuitamente e utilizado por qualquer pessoa. E alguns entusiastas da IA ​​podem ficar chateados com o facto de o governo estar a fazer qualquer coisa para limitar o desenvolvimento de uma tecnologia que consideram na sua maioria boa.

Mas a ordem executiva parece encontrar um equilíbrio cuidadoso entre pragmatismo e cautela e, na ausência de uma acção do Congresso para transformar regulamentos abrangentes em matéria de IA, parece ser a protecção mais clara que provavelmente obteremos num futuro próximo.

Haverá outras tentativas de regulamentar a IA – principalmente na União Europeia, onde a Lei da IA ​​poderá tornar-se lei já no próximo anoe na Grã-Bretanha, onde um cúpula de líderes globais esta semana espera-se que produza novos esforços para controlar o desenvolvimento da IA.

A ordem executiva da Casa Branca é um sinal de que pretende agir rapidamente. A questão, como sempre, é se a própria IA se moverá mais rapidamente.



Source link

Related Articles

Deixe um comentário