Home Saúde Nós pressiona por menos regulamentação de IA no Paris Summit

Nós pressiona por menos regulamentação de IA no Paris Summit

Por Humberto Marchezini


SAs preocupações de afastamento estão divulgadas, o otimismo está: esse foi o argumento de uma grande cúpula de inteligência artificial em Paris nesta semana, como líderes dos EUA, França e além, jogavam seu peso por trás da indústria da IA.

Embora houvesse divisões entre as principais nações-os EUA e o Reino Unido não assinaram uma declaração final endossada por 60 nações pedindo um setor de IA “inclusivo” e “aberto”-o foco da reunião de dois dias foi marcadamente diferente do último tal reunião. No ano passado, em Seul, a ênfase estava na definição de linhas vermelhas para a indústria de IA. A preocupação: que a tecnologia, embora tenha uma grande promessa, também teve o potencial de grande dano.

Mas isso foi então. A declaração final não mencionou os riscos significativos de IA nem tenta mitigá -los, enquanto em um discurso na terça -feira, o vice -presidente dos EUA, JD Vance, disse: “Não estou aqui esta manhã para falar sobre a segurança da IA, que era o título do título do Conferência há alguns anos. Estou aqui para falar sobre a oportunidade da IA. ”

O líder francês e o apresentador da cúpula, Emmanuel Macron, também trombeta uma mensagem decididamente pró-negócios-sublinhando como as nações ansiosas em todo o mundo devem ganhar uma vantagem no desenvolvimento de novos sistemas de IA.

Era uma vez em Bletchley

A ênfase em aumentar o setor de IA e deixar de lado as preocupações de segurança estava muito longe da primeira cúpula global na IA realizada em Bletchley Park, no Reino Unido, em 2023. Chamado de “cúpula de segurança da IA” – a reunião francesa em contraste foi chamada de “AI Action Summit” – seu objetivo expresso era debater uma maneira de mitigar os riscos representados pelos desenvolvimentos na tecnologia.

O segundo encontro global, em Seul, em 2024, construiu sobre essa base, com líderes garantindo compromissos voluntários de segurança dos principais players de IA como Openai, Google, Meta e seus colegas na China, Coréia do Sul e Emirados Árabes Unidos. A cúpula de 2025 em Paris, governos e empresas de IA concordou na época, seria o local para definir linhas vermelhas para os limiares de risco: que exigiriam mitigações em nível internacional.

Paris, no entanto, foi para o outro lado. “Acho que esse foi um verdadeiro flop da barriga”, diz Max Tegmark, professor do MIT e presidente do Future of Life Institute, uma organização sem fins lucrativos focada em mitigar os riscos da IA. “Quase parecia que eles estavam tentando desfazer Bletchley.”

A Anthropic, uma empresa de IA focada em segurança, chamou o evento de “oportunidade perdida”.

O Reino Unido, que sediou a primeira cúpula da IA, disse que havia se recusado a assinar a declaração de Paris por falta de substância. “Sentimos que a declaração não forneceu clareza prática suficiente sobre a governança global, nem abordando suficientemente questões mais difíceis sobre a segurança nacional e o desafio que a IA representa”, disse um porta -voz do primeiro -ministro Keir Starmer.

Correndo para uma vantagem

A mudança vem contra o cenário de intensificar desenvolvimentos na IA. No mês ou mais antes da cúpula de 2025, o OpenAI lançou um modelo “agente” que pode executar tarefas de pesquisa aproximadamente no nível de um estudante de pós -graduação competente.

Enquanto isso, os pesquisadores de segurança mostraram pela primeira vez que a última geração de modelos de IA pode tentar enganar seus criadores e copiar -se, em uma tentativa de evitar a modificação. Muitos cientistas independentes de IA agora concordam com as projeções das próprias empresas de tecnologia: essa IA de nível super-humana pode ser desenvolvida nos próximos cinco anos-com efeitos potencialmente catastróficos se questões não resolvidas na pesquisa de segurança não forem abordadas.

No entanto, essas preocupações foram levadas para o queimador de trás, como os EUA, em particular, fizeram um argumento vigoroso contra os movimentos para regular o setor, com Vance dizendo que o governo Trump “não pode e não” aceitará governos estrangeiros “apertando os parafusos da Tecnologia dos EUA empresas. ”

Ele também criticou fortemente os regulamentos europeus. A UE possui a lei de IA mais abrangente do mundo, chamada Lei de AI, além de outras leis, como a Lei de Serviços Digitais, que Vance chamou pelo nome como sendo excessivamente restritivo em suas restrições relacionadas à desinformação nas mídias sociais.

O novo vice -presidente, que tem uma ampla base de apoio entre capitalistas de risco, também deixou claro que seu apoio político a grandes empresas de tecnologia não se estendia a regulamentos que levantariam barreiras para novas startups, dificultando assim o desenvolvimento de tecnologias inovadoras de IA.

“Para restringir o desenvolvimento (da IA) agora, não apenas beneficiaria injustamente os titulares do espaço, como também significaria paralisar uma das tecnologias mais promissoras que vimos em gerações”, disse Vance. “Quando um grande titular chega a nós pedindo regulamentos de segurança, devemos perguntar se essa regulamentação de segurança é para o benefício de nosso povo ou se é para o benefício do titular”.

E em um sinal claro de que as preocupações com os riscos da IA ​​estão em desuso no Washington do presidente Trump, ele associou a segurança da IA ​​a um popular ponto de discussão republicano: a restrição de “liberdade de expressão” por plataformas de mídia social que tentam combater danos como a desinformação.

Com reportagem de Tharin Pillay/Paris e Harry Booth/Paris

(Tagstotranslate) Ai



Source link

Related Articles

Deixe um comentário