EUSe a inteligência artificial geral descontrolada – ou IA “semelhante a Deus” – está surgindo no horizonte, estamos agora a meio caminho disso. Todos os dias, o relógio se aproxima de um potencial cenário apocalíptico.
Por isso apresentei o Relógio de segurança AI mês passado. Meu objetivo é simples: quero deixar claro que os perigos da AGI descontrolada são reais e presentes. A leitura actual do Relógio – 29 minutos para a meia-noite – é uma medida de quão perto estamos do ponto crítico em que a AGI descontrolada pode trazer riscos existenciais. Embora ainda não tenha acontecido nenhum dano catastrófico, a velocidade vertiginosa do desenvolvimento da IA e as complexidades da regulamentação significam que todas as partes interessadas devem permanecer alertas e envolvidas.
Isto não é alarmismo; é baseado em dados concretos. O AI Safety Clock monitoriza três fatores essenciais: a crescente sofisticação das tecnologias de IA, a sua crescente autonomia e a sua integração com sistemas físicos.
Estamos vendo avanços notáveis nesses três fatores. Os maiores estão acontecendo no aprendizado de máquina e nas redes neurais, com a IA agora superando os humanos em áreas específicas como reconhecimento de imagem e fala, dominando jogos complexos como Go e até mesmo passando em testes como exames da escola de negócios e Entrevistas de codificação da Amazon.
Leia mais: Ninguém sabe como testar a segurança da IA
Apesar destes avanços, a maioria dos sistemas de IA atuais ainda depende da direção humana, conforme observado pelo Instituto Stanford para Inteligência Artificial Centrada no Ser Humano. Eles são desenvolvidos para executar tarefas estritamente definidas, guiados pelos dados e instruções que fornecemos.
Dito isto, alguns sistemas de IA já mostram sinais de independência limitada. Veículos autônomos tomar decisões em tempo real sobre navegação e segurança, enquanto algoritmos de recomendação em plataformas como YouTube e Amazon sugerem conteúdos e produtos sem intervenção humana. Mas não estamos no ponto de autonomia total – ainda existem grandes obstáculos, desde garantir a segurança e a supervisão ética até lidar com a imprevisibilidade dos sistemas de IA em ambientes não estruturados.
Neste momento, a IA permanece em grande parte sob controlo humano. Ainda não está totalmente integrado nos sistemas críticos que mantêm o nosso mundo a funcionar – redes de energia, mercados financeiros ou armas militares – de uma forma que lhe permita operar de forma autónoma. Mas não se engane, estamos caminhando nessa direção. As tecnologias baseadas em IA já estão obtendo ganhos, especialmente nas forças armadas, com sistemas como drones autônomose nos setores civis, onde a IA ajuda a otimizar consumo de energia e auxilia com negociação financeira.
Assim que a IA obtém acesso a infraestruturas mais críticas, os riscos multiplicam-se. Imagine a IA decidindo cortar o fornecimento de energia de uma cidade, manipular os mercados financeiros ou implantar armas militares – tudo isso sem qualquer supervisão humana ou limitada. É um futuro que não podemos permitir que se concretize.
Mas não são apenas os cenários apocalípticos que devemos temer. O lado mais sombrio das capacidades da IA já está se tornando conhecido. As campanhas de desinformação alimentadas por IA são distorcendo o discurso público e desestabilizando democracias. Um exemplo notório são as eleições presidenciais dos EUA em 2016, durante as quais a Agência Russa de Pesquisa na Internet utilizou bots automatizados em plataformas de mídia social para espalhar conteúdo divisivo e enganoso.
Deepfakes também estão se tornando um problema sério. Em 2022, vimos um exemplo arrepiante quando surgiu um vídeo falso do presidente ucraniano Volodymyr Zelensky, retratando-o falsamente pedindo rendição durante a invasão russa. O objectivo era claro: minar o moral e semear confusão. Estas ameaças não são teóricas – estão a acontecer neste momento e, se não agirmos, tornar-se-ão mais sofisticadas e mais difíceis de impedir.
Embora a IA avance na velocidade da luz, a regulamentação ficou para trás. Isto é especialmente verdadeiro nos EUA, onde os esforços para implementar leis de segurança de IA têm sido na melhor das hipóteses, fragmentado. A regulamentação tem sido muitas vezes deixada ao cuidado dos estados, conduzindo a uma manta de retalhos de leis com eficácia variável. Não existe um quadro nacional coeso para governar o desenvolvimento e a implantação da IA. A recente decisão do governador da Califórnia, Gavin Newsom, de vetar um projeto de lei de segurança de IAtemendo que isso prejudicasse a inovação e empurrasse as empresas de tecnologia para outros lugares, apenas destaca o quão atrasada está a política.
Leia mais: Regulamentar a IA é mais fácil do que você pensa
Precisamos de uma abordagem global e coordenada à regulamentação da IA – um organismo internacional para monitorizar o desenvolvimento da AGI, semelhante à Agência Internacional de Energia Atómica para a tecnologia nuclear. A IA, tal como a energia nuclear, é uma tecnologia sem fronteiras. Se pelo menos um país desenvolver a AGI sem as devidas salvaguardas, as consequências poderão repercutir-se em todo o mundo. Não podemos permitir que lacunas na regulamentação exponham todo o planeta a riscos catastróficos. É aqui que a cooperação internacional se torna crucial. Sem acordos globais que estabeleçam limites claros e garantam o desenvolvimento seguro da IA, corremos o risco de uma corrida armamentista rumo ao desastre.
Ao mesmo tempo, não podemos fechar os olhos às responsabilidades de empresas como Google, Microsoft e OpenAI – empresas na vanguarda do desenvolvimento de IA. Cada vez mais, existem preocupações de que a corrida pelo domínio na IA, impulsionada pela intensa concorrência e pressões comerciais, possa ofuscar os riscos a longo prazo. OpenAI recentemente ganhou as manchetes ao mudar para um estrutura com fins lucrativos.
O pioneiro da inteligência artificial Geoffrey Hinton aviso sobre a corrida entre Google e Microsoft foi clara: “Não acho que eles deveriam ampliar isso ainda mais até que entendam se podem controlá-lo”.
Parte da solução reside na construção de sistemas de segurança contra falhas – “interruptores de interrupção” ou backdoors que permitiriam a intervenção humana se um sistema de IA começasse a comportar-se de forma imprevisível. A lei de segurança de IA da Califórnia incluía disposições para este tipo de salvaguarda. Esses mecanismos precisam ser incorporados à IA desde o início, e não adicionados posteriormente.
Não há como negar que os riscos são reais. Estamos prestes a partilhar o nosso planeta com máquinas que poderão igualar ou mesmo superar a inteligência humana – quer isso aconteça dentro de um ou dez anos. Mas não estamos desamparados. A oportunidade de orientar o desenvolvimento da IA na direção certa ainda está ao nosso alcance. Podemos garantir um futuro onde a IA seja uma força para o bem.
Mas o tempo está correndo.