Home Saúde Existe uma solução para o problema de risco existencial da IA

Existe uma solução para o problema de risco existencial da IA

Por Humberto Marchezini


To progresso tecnológico pode entusiasmar-nos, a política pode enfurecer-nos e as guerras podem mobilizar-nos. Mas, face ao risco de extinção humana que a ascensão da inteligência artificial está a causar, temos permanecido surpreendentemente passivos. Em parte, talvez isto se deva ao facto de não parecer haver uma solução. Esta é uma ideia que gostaria de desafiar.

As capacidades da IA ​​estão cada vez melhores. Desde o lançamento do ChatGPT, há dois anos, centenas de bilhões de dólares foram investidos em IA. Esses esforços combinados provavelmente levarão à Inteligência Geral Artificial (AGI), onde as máquinas terão uma cognição semelhante à humana, talvez dentro de apenas alguns anos.

Centenas de cientistas de IA pensar podemos perder o controle sobre a IA quando ela se tornar muito capaz, o que poderá resultar na extinção humana. Então, o que podemos fazer?

Leia mais: O que a vitória de Donald Trump significa para a IA

O risco existencial da IA ​​tem sido frequentemente apresentado como extremamente complexo. UM artigo de 2018por exemplo, chamou o desenvolvimento de IA segura em nível humano de “problema extremamente perverso”. Esta dificuldade percebida teve muito a ver com a solução proposta de Alinhamento de IAo que implica fazer com que a IA sobre-humana atue de acordo com os valores da humanidade. O alinhamento da IA, no entanto, foi uma solução problemática desde o início.

Primeiro, o progresso científico no alinhamento tem sido muito mais lento do que o progresso na própria IA. Em segundo lugar, a questão filosófica de quais valores alinhar uma superinteligência é incrivelmente complicada. Terceiro, não é de todo óbvio que o alinhamento, mesmo que bem-sucedido, seja uma solução para o risco existencial da IA. Ter uma IA amigável não impede necessariamente outras IA hostis.

Devido a estas questões, muitos têm apelado às empresas tecnológicas para não construírem qualquer IA sobre a qual a humanidade possa perder o controlo. Alguns foram mais longe; grupos ativistas como o PauseAI realmente proposto um tratado internacional que interromperia o desenvolvimento globalmente.

Isso não é visto como politicamente palatável por muitos, uma vez que ainda pode levar muito tempo até que as peças que faltam na AGI sejam preenchidas. E será que temos que fazer uma pausa já, quando esta tecnologia também pode fazer muito bem? Yann Lecun, chefe de IA da Meta e proeminente cético em relação ao risco existencial, diz que o debate sobre o risco existencial é como “preocupar-se com a segurança dos turbojatos em 1920”.

Por outro lado, a tecnologia pode dar um salto. Se conseguirmos outro avanço como o transformadoruma inovação de 2017 que ajudou a lançar modelos modernos de grandes linguagens, talvez pudéssemos alcançar o AGI em alguns meses de treinamento. É por isso que um quadro regulamentar precisa estar em vigor antes disso.

Felizmente, o Prémio Nobel Geoffrey Hinton, o vencedor do Prémio Turing Yoshua Bengio e muitos outros forneceram uma parte da solução. Num documento político publicado em Ciência no início deste ano, eles recomendado “compromissos se-então”: compromissos a serem ativados se e quando forem encontradas capacidades de linha vermelha em sistemas de IA de fronteira.

Com base no seu trabalho, nós, do Observatório de Risco Existencial, sem fins lucrativos, propomos um Tratado Condicional de Segurança da IA. Os países signatários deste tratado, que deveriam incluir pelo menos os EUA e a China, concordariam que, quando chegarmos demasiado perto da perda de controlo, interromperão qualquer treino potencialmente inseguro dentro das suas fronteiras. Depois que as nações mais poderosas assinarem este tratado, será do seu interesse verificar o cumprimento umas das outras e garantir que uma IA incontrolável também não seja construída em outro lugar.

Uma questão pendente é até que ponto as capacidades da IA ​​estão demasiado próximas da perda de controlo. Propomos delegar esta questão aos Institutos de Segurança de IA criados no Reino Unido., NÓS., Chinae outros países. Eles possuem conhecimento especializado em avaliação de modelos, que pode ser desenvolvido para responder a esta questão crucial. Além disso, esses institutos são públicos, o que os torna independentes dos laboratórios de desenvolvimento de IA, em sua maioria privados. A questão de quão perto está de perder o controle permanecerá difícil, mas alguém precisará respondê-la, e os AI Safety Institutes estão em melhor posição para fazê-lo.

Ainda podemos, na sua maioria, obter os benefícios da IA ​​ao abrigo do Tratado de Segurança Condicional da IA. Toda a IA atual está muito abaixo do nível de perda de controle e, portanto, não será afetada. No futuro, as IA restritas que sejam adequadas para uma única tarefa – como a modelação climática ou a descoberta de novos medicamentos – também não serão afetadas. IAs ainda mais gerais ainda podem ser desenvolvidas, se os laboratórios puderem demonstrar a um regulador que seu modelo tem risco de perda de controle inferior a, digamos, 0,002% ao ano (o segurança limite que aceitamos para reatores nucleares). Outros pensadores de IA, como o professor do MIT Max TegmarkConjectura CEO Connor Leahye diretor da ControlAI Andrea Miottiestão pensando em direções semelhantes.

Felizmente, os riscos existenciais colocados pela IA são reconhecidos por muitos próximos do Presidente eleito Donald Trump. Sua filha Ivanka parece ver a urgência do problema. Elon Musk, um apoiante crítico de Trump, tem falado abertamente sobre os riscos civilizacionais durante muitos anos e, recentemente, suportado O impulso legislativo da Califórnia para testar a segurança da IA. Até mesmo o direitista Tucker Carlson forneceu comentários de bom senso quando disse: “Então não sei por que estamos sentados e permitindo que isso aconteça, se realmente acreditamos que isso extinguirá a raça humana ou escravizará a raça humana. Tipo, como isso pode ser bom? Por sua vez, Trump também expressou preocupação com os riscos representados pela IA.

O Tratado de Segurança Condicional da IA ​​poderia fornecer uma solução para o risco existencial da IA, sem obstruir desnecessariamente o desenvolvimento da IA ​​neste momento. Fazer com que a China e outros países aceitem e apliquem o tratado será sem dúvida um grande desafio geopolítico, mas talvez um governo Trump seja exactamente o que é necessário para o superar.

Existe uma solução para um dos problemas mais difíceis que enfrentamos – o risco existencial da IA. Cabe a nós fazer com que isso aconteça ou continuar a trilhar o caminho rumo à possível extinção humana.



Source link

Related Articles

Deixe um comentário