Home Saúde Por que os EUA lançaram uma rede internacional de institutos de segurança de IA

Por que os EUA lançaram uma rede internacional de institutos de segurança de IA

Por Humberto Marchezini


“A IA é uma tecnologia como nenhuma outra na história da humanidade”, disse a secretária de Comércio dos EUA, Gina Raimondo, na quarta-feira em São Francisco. “Avançar na IA é a coisa certa a fazer, mas avançar o mais rápido possível, só porque podemos, sem pensar nas consequências, não é a coisa inteligente a fazer.”

Os comentários de Raimondo ocorreram durante a cerimônia inaugural convocando da Rede Internacional de Institutos de Segurança de IA, uma rede de institutos de segurança de inteligência artificial (AISIs) de 9 países, bem como da Comissão Europeia reunida pelos Departamentos de Comércio e Estado dos EUA. O evento reuniu especialistas técnicos do governo, da indústria, da academia e da sociedade civil para discutir como gerir os riscos representados por sistemas de IA cada vez mais capazes.

Raimondo sugeriu que os participantes tenham em mente dois princípios: “Não podemos divulgar modelos que coloquem as pessoas em perigo”, disse ela. “Em segundo lugar, vamos garantir que a IA esteja servindo as pessoas, e não o contrário.”

Leia mais: Como a secretária de comércio, Gina Raimondo, se tornou a principal mulher da América em IA

A convocação marca um avanço significativo na colaboração internacional em matéria de governação da IA. Os primeiros AISIs surgiram em novembro passado, durante a Cúpula de Segurança de IA inaugural organizada pelo Reino Unido. Tanto o Reino Unido e o NÓS os governos anunciaram a formação dos seus respectivos AISI como forma de dar aos seus governos a capacidade técnica para avaliar a segurança dos modelos de IA de ponta. Outros países seguiram o exemplo; em maio, em outro AI Summit em Seul, Raimondo anunciou a criação da rede.

Em um declaração conjuntaos membros da Rede Internacional de Institutos de Segurança de IA – que inclui AISIs dos EUA, Reino Unido, Austrália, Canadá, França, Japão, Quénia, Coreia do Sul e Singapura – definiram a sua missão: “ser um fórum que reúna conhecimentos técnicos de todo o mundo”, “…para facilitar uma compreensão técnica comum dos riscos e mitigações de segurança da IA ​​com base no trabalho dos nossos institutos e da comunidade científica mais ampla” e “…para encorajar uma compreensão geral e uma abordagem à IA segurança global, que permitirá os benefícios da IA inovação a ser compartilhada entre países em todos os estágios de desenvolvimento.”

Antes da convocação, a AISI dos EUA, que atua como presidente inaugural da rede, também anunciou um novo governo força-tarefa focado nos riscos de segurança nacional da tecnologia. A Força-Tarefa de Testes de Riscos de IA para Segurança Nacional (TRAINS) reúne representantes dos Departamentos de Defesa, Energia, Segurança Interna e Saúde e Serviços Humanos. Será presidido pela AISI dos EUA e terá como objetivo “identificar, medir e gerir as implicações emergentes para a segurança nacional e a segurança pública da tecnologia de IA em rápida evolução”, com especial enfoque na segurança radiológica e nuclear, na segurança química e biológica, na segurança cibernética , infraestrutura crítica e capacidades militares convencionais.

O impulso à cooperação internacional surge num momento de crescente tensão em torno do desenvolvimento da IA ​​entre os EUA e a China, cuja ausência da rede é notável. Em comentários pré-gravados para a convocação, o líder da maioria no Senado, Chuck Schumer, enfatizou a importância de garantir que o Partido da Comunidade Chinesa não consiga “escrever as regras de trânsito”. Na quarta-feira anterior, o laboratório chinês Deepseek anunciado um novo modelo de “raciocínio” considerado o primeiro a rivalizar com o modelo de raciocínio da própria OpenAI, o1, que a empresa diz ser “projetado para passar mais tempo pensando” antes de responder.

Na terça-feira, a Comissão de Revisão Económica e de Segurança EUA-China, que fornece recomendações anuais ao Congresso desde 2000, recomendou que o Congresso estabelecesse e financiasse um “programa semelhante ao Projecto Manhattan dedicado a competir e adquirir uma capacidade de Inteligência Geral Artificial (AGI). ”, que a comissão definido como “sistemas tão bons ou melhores que as capacidades humanas em todos os domínios cognitivos” que “ultrapassariam as mentes humanas mais perspicazes em todas as tarefas”.

Muitos especialistas na área, como Geoffrey Hinton, que no início deste ano ganhou o Prémio Nobel da Física pelo seu trabalho trabalhar sobre inteligência artificial, expressaram preocupações que, caso a AGI seja desenvolvida, a humanidade poderá não ser capaz de a controlar, o que poderá levar a danos catastróficos. Em um painel de discussão no evento de quarta-feira, o CEO da Anthropic, Dario Amodei – que acredita Sistemas do tipo AGI poderão chegar já em 2026 – citando os riscos de “perda de controlo” como uma preocupação séria, juntamente com os riscos de que modelos futuros mais capazes sejam utilizados indevidamente por intervenientes maliciosos para perpetrar o bioterrorismo ou minar a segurança cibernética. Respondendo a uma pergunta, Amodei expresso apoio inequívoco para tornar obrigatório o teste de sistemas avançados de IA, observando que “também precisamos ser muito cuidadosos sobre como o fazemos”.

Entretanto, a colaboração internacional prática em matéria de segurança da IA ​​está a avançar. No início da semana, os AISIs dos EUA e do Reino Unido compartilharam informações preliminares descobertas a partir da avaliação pré-implantação de um modelo avançado de IA – a versão atualizada do Claude 3.5 Sonnet da Anthropic. A avaliação centrou-se na avaliação das capacidades biológicas e cibernéticas do modelo, bem como no seu desempenho em tarefas de software e desenvolvimento, e na eficácia das salvaguardas incorporadas no mesmo para evitar que o modelo responda a pedidos prejudiciais. Tanto os AISI do Reino Unido como dos EUA descobriram que estas salvaguardas poderiam ser “contornadas rotineiramente”, o que observaram ser “consistente com pesquisas anteriores sobre a vulnerabilidade das salvaguardas de outros sistemas de IA”.

A reunião de São Francisco estabeleceu três tópicos prioritários que podem “beneficiar urgentemente da colaboração internacional”: gestão de riscos de conteúdo sintético, teste de modelos básicos e realização de avaliações de risco para sistemas avançados de IA. Antes da convocação, foram anunciados 11 milhões de dólares de financiamento para apoiar a investigação sobre a melhor forma de mitigar os riscos de conteúdos sintéticos (tais como a geração e distribuição de material de abuso sexual infantil e a facilitação de fraude e falsificação de identidade). O financiamento foi fornecido por uma combinação de agências governamentais e organizações filantrópicas, incluindo a República da Coreia e a Fundação Knight.

Embora não esteja claro como a vitória eleitoral de Donald Trump impactará o futuro da AISI dos EUA e da política americana de IA de forma mais ampla, a colaboração internacional no tema da segurança da IA ​​deverá continuar. A AISI do Reino Unido está hospedando outro evento com sede em São Francisco conferência esta semana, em parceria com o Centro para a Governança da IA“para acelerar a concepção e implementação de estruturas de segurança de IA de ponta”. E em fevereiro, a França sediará o seu “Cúpula de Ação de IA”, na sequência das cimeiras realizadas em Seul, em maio, e no Reino Unido, em novembro passado. A Cimeira de Acção sobre IA de 2025 reunirá líderes dos sectores público e privado, do meio académico e da sociedade civil, à medida que actores de todo o mundo procuram encontrar formas de governar a tecnologia à medida que as suas capacidades se aceleram.

Raimondo enfatizou na quarta-feira a importância de integrar segurança com inovação quando se trata de algo que avança tão rapidamente e é tão poderoso como a IA. “Tem o potencial de substituir a mente humana”, disse ela. “A segurança é boa para a inovação. Segurança gera confiança. A confiança acelera a adoção. A adoção leva a mais inovação. Precisamos desse ciclo virtuoso.”



Source link

Related Articles

Deixe um comentário