Home Saúde Especialistas em IA pedem ações políticas para evitar riscos extremos

Especialistas em IA pedem ações políticas para evitar riscos extremos

Por Humberto Marchezini


ÓNa terça-feira, 24 especialistas em IA, incluindo os vencedores do Prêmio Turing Geoffrey Hinton e Yoshua Bengio, lançaram um papel apelando aos governos para que tomem medidas para gerir os riscos da IA. O documento político centrou-se especialmente nos riscos extremos colocados pelos sistemas mais avançados, tais como permitir atividades criminosas ou terroristas em grande escala.

O documento faz uma série de recomendações políticas concretas, como garantir que as principais empresas tecnológicas e financiadores públicos dediquem pelo menos um terço do seu orçamento de I&D em IA a projetos que promovam a utilização segura e ética da IA. Os autores também defendem a criação de padrões nacionais e internacionais.

Bengio, diretor científico do Instituto de Algoritmos de Aprendizagem de Montreal, diz que o artigo visa ajudar os formuladores de políticas, a mídia e o público em geral a “compreender os riscos e algumas das coisas que temos que fazer para que os sistemas (IA) façam o que nós queremos.”

As recomendações não abrem novos caminhos. Em vez disso, os co-autores do artigo estão a apoiar a visão consensual entre os investigadores de políticas de IA preocupados com riscos extremos (eles correspondem de perto às políticas mais populares identificadas num relatório de Maio). pesquisa de especialistas).

“Queríamos apresentar o que (consideramos) um pensamento claro sobre a segurança da IA, razoavelmente livre da influência de interesses adquiridos”, Stuart Russell, professor de ciência da computação na Universidade da Califórnia, Berkeley, e coautor da carta, disse à TIME por e-mail.

A declaração desta semana difere das cartas abertas anteriores lideradas por especialistas, diz Russell, porque “os governos compreenderam que existem riscos reais. Eles estão perguntando à comunidade de IA: ‘O que deve ser feito?’ A declaração é uma resposta a essa pergunta.”

Outros coautores incluem o historiador e filósofo Yuval Noah Harari e o bolsista “gênio” MacArthur e professor de ciência da computação na Universidade da Califórnia, Berkeley, Dawn Song, junto com vários outros acadêmicos de vários países e áreas.

O documento é a terceira declaração proeminente assinada por especialistas em IA este ano, num esforço crescente para soar o alarme sobre os riscos potenciais do desenvolvimento não regulamentado da IA. Em março, um carta aberta um apelo aos laboratórios de IA para “interromper imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4” foi assinado por dezenas de milhares de pessoas, incluindo Elon Musk, Bengio e Russell.

Em maio, um declaração organizado pelo Center for AI Safety declarou que “mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos à escala social, como pandemias e guerra nuclear”. A declaração foi assinada por mais de 500 acadêmicos proeminentes e líderes da indústria, novamente incluindo Hinton, Bengio e Russell, mas também pelos CEOs de três das mais proeminentes empresas de IA: Sam Altman da OpenAI, Demis Hassabis da DeepMind e Dario Amodei da Antrópico.

Pieter Abbeel, cofundador, presidente e cientista-chefe da empresa de robótica Covariant.ai, e professor de engenharia elétrica e ciências da computação na Universidade da Califórnia, Berkeley, assinou o artigo desta semana, apesar de não ter assinado cartas abertas anteriores. Abbeel disse à TIME que o tom cautelosamente optimista desta declaração mais recente se adapta melhor à sua opinião do que os tons mais alarmantes das cartas abertas anteriores. “Se fizermos as coisas corretamente – e temos muitas coisas para acertar – podemos ser muito otimistas em relação ao futuro”, diz ele.

Os investigadores de IA há muito que tentam chamar a atenção para os riscos potenciais representados pela tecnologia que ajudaram a desenvolver. Em 2016, Hinton, Bengio e Russell assinaram um carta organizado pelo Future of Life Institute, uma organização sem fins lucrativos que visa reduzir riscos catastróficos e existenciais globais, apelando a uma “proibição de armas autónomas ofensivas fora do controlo humano significativo”.

Historicamente, os cientistas soaram o alarme e foram os primeiros defensores de questões relacionadas com a sua investigação. Os cientistas do clima têm chamando atenção ao problema do aquecimento global desde a década de 1980. E depois de liderar o desenvolvimento da bomba atómica, Robert Oppenheimer tornou-se um defensor vocal do controlo internacional, e mesmo da abolição total, das armas nucleares.

Bengio diz que a sua defesa da política de IA evoluiu à medida que a sua “compreensão do problema, e a política em torno dele melhorou muito”.

Uma das políticas recomendadas no novo documento é exigir que as empresas procurem uma licença antes de desenvolverem “modelos futuros excepcionalmente capazes”. Alguns Desenvolvedores de IA e comentaristasno entanto, alertaram que o licenciamento beneficiaria as grandes empresas que podem suportar a carga regulamentar necessária para obter uma licença.

Bengio chama isto de “argumento completamente falso”, apontando que o fardo imposto pelo licenciamento recairia exclusivamente sobre as empresas que desenvolvem os maiores e mais capazes modelos de IA. Em vez disso, Bengio argumenta que o risco real de captura regulatória a ter em conta seria se as empresas pudessem influenciar a legislação de tal forma que esta não fosse suficientemente robusta.

Russell diz que o argumento de que as grandes empresas de IA estão cinicamente pressionando por uma regulamentação que exclua as empresas menores é “um total absurdo sobre palafitas”, argumentando que, embora haja mais regulamentações sobre lanchonetes do que sobre empresas de IA, dezenas de milhares de novos cafés e restaurantes restaurantes abrem todos os anos.

O novo documento surge num momento crucial, com regras nas principais jurisdições de desenvolvimento de IA em diferentes fases de maturidade. A China está mais à frente – as suas regras que regem os chatbots de IA, que se baseiam em rondas anteriores de regulamentação da IA, entraram em vigor em Agosto.

Os países ocidentais estão mais atrás. A Lei da UE sobre IA ainda está a progredir no processo regulamentar da UE. Nos EUA, a Casa Branca garantiu compromissos voluntários de 15 importantes criadores de IA, mas o Congresso continua muito longe de aprovar legislação sobre IA.

Entretanto, o primeiro-ministro do Reino Unido, Rishi Sunak, está a tentar desempenhar um papel fundamental na promoção da cooperação internacional em questões de IA, e o secretário-geral da ONU, António Guterres, e o seu enviado para a tecnologia, Amandeep Gill, também estão a tentar fazer avançar a governação global da IA.

“Se os governos agirem agora, com determinação”, diz Russell, “há uma hipótese de aprendermos como tornar os sistemas de IA seguros antes de aprendermos como torná-los tão poderosos que se tornem incontroláveis”.

Correção, 24 de outubro

A versão original desta história distorceu a natureza do documento publicado. É um artigo, não uma carta aberta.





Source link

Related Articles

Deixe um comentário