“Um Ministro da Inteligência Artificial da idade do meu filho, nomeado para regular uma hipotética tecnologia, prova-me que o seu governo tem muito tempo e recursos disponíveis.” Estas foram as palavras de um alto funcionário do governo durante uma reunião bilateral em 2017, pouco depois de ter sido nomeado o primeiro Ministro da Inteligência Artificial do mundo. Ao ouvir essa observação, lembro-me claramente de ter sentido uma pontada de indignação por equipararem a juventude à incompetência, mas ainda mais pelo seu claro desrespeito e banalização da IA.
Seis anos após o meu papel de líder da estratégia dos EAU para se tornarem o país mais preparado para a IA, o ano passado foi uma corrida emocionante de avanços sem precedentes na IA. Do ChatGPT ao Midjourney ao HyenaDNA. É agora inegável que a IA já não é uma tecnologia hipotética, mas sim uma tecnologia que garante muito mais tempo e recursos governamentais em todo o mundo.
Vejo uma semelhança entre estes avanços e a progressão que a humanidade testemunhou em áreas como a mobilidade. Pense na evolução dos cavalos para os aviões em apenas algumas décadas, onde hoje as viagens a cavalo simplesmente não podem competir com uma aeronave a 900 km/h, e extrapole a partir desse exemplo para onde a evolução da computação da IA nos levará. Estamos andando a cavalo hoje. Da calculadora de Pascal ao futuro da IA, a mente humana será eclipsada tanto em velocidade como em complexidade. Imagine, se quiser, uma verdadeira “Lâmpada de Aladim” da tecnologia. Você escreve um aviso neste recipiente e dele, como o gênio da tradição, surgem todos os seus desejos digitais. Este é o futuro emocionante que viveremos para experimentar.
No entanto, correndo o risco de soar o alarme, o potencial de danos é colossal. Ao longo da história, temos testemunhado acontecimentos catastróficos que galvanizam os governos para regulamentarem a tecnologia: o desastre nuclear de Chernobyl em 1986 levou a uma revisão das directrizes de segurança da Agência Internacional de Energia Atómica; o desastre do aeroporto de Tenerife em 1977, onde dois Boeing 747 colidiram, levou à fraseologia padronizada no controle de tráfego aéreo. Um ‘Gênio de Aladim’ dando errado pode resultar em um desastre em uma escala que nunca vimos antes. Isto pode incluir tudo, desde a paralisia de infraestruturas críticas por IA desonesta, à quebra da confiança nas informações devido a deepfakes credíveis espalhados por bots, até ameaças cibernéticas que levam à perda substancial de vidas humanas. O impacto transcende em muito as operações de um aeroporto ou os limites geográficos de uma cidade. Simplificando, não podemos esperar por uma catástrofe de IA para regulá-la.
Face a este potencial impacto negativo, acelerado pelo desenvolvimento contínuo da IA, é evidente que os modelos tradicionais de governação e regulação, que levam anos a formular, estão extremamente mal equipados. E isto vem de uma pessoa que passou um terço da sua vida regulamentando a tecnologia emergente nos Emirados Árabes Unidos. Uma lei para regulamentar a IA que só entrará em vigor anos depois não é uma referência de agilidade nem eficácia. Além disso, uma única nação na nossa actual ordem global, limitada por fronteiras e burocracia, é simplesmente incapaz de lidar com uma força tão global e em rápido avanço como a IA.
Isto exige uma reimaginação fundamental da governação, que seja ágil no seu processo e multilateral na sua implementação. Devemos abraçar a abordagem de pioneiros como Elon Musk, que simultaneamente nos alertam para os perigos da IA não regulamentada, ao mesmo tempo que a utilizam para empurrar vigorosamente os limites da humanidade. Nós também devemos ultrapassar esta linha, tratando estes alertas como barreiras de proteção maleáveis que orientam, em vez de impedir, o desenvolvimento da IA. Fazer isso exige dissipar o perigo da ignorância em torno da IA no governo.
Para além de alargar os horizontes governamentais, devemos adoptar uma abordagem racional, simples e ponderada relativamente à regulamentação da IA, que não estrangule a inovação nem iniba a adopção. Suponha que uma IA se depare com dois pacientes gravemente enfermos, mas os recursos permitem apenas que um seja tratado. Quem a IA deve priorizar? Já se foram os dias dos labirínticos documentos políticos de mil páginas que estabeleciam um padrão de conformidade inatingível. Nosso foco deve girar no sentido de abraçar um projeto, reminiscente da simplicidade encontrada nas famosas “Três Leis da Robótica” de Isaac Asimov. A primeira lei impede que a IA prejudique os humanos ou, por inação, permite que os humanos sejam prejudicados. Portanto, esta lei transferiria o enigma dos dois pacientes gravemente enfermos para um ser humano, que confiaria nos seus procedimentos éticos e no julgamento humano para tomar a decisão.
Estes podem ser axiomas universais que permanecem inabaláveis pelo desenvolvimento da IA porque a sua validade não é uma questão de prova científica, mas sim uma marca da nossa humanidade partilhada ao navegar no próximo problema do carrinho de IA. Eles nos lembrariam, e às futuras gerações, que a IA deve estar sempre a serviço dos valores humanos, e não o contrário.
Defendo uma nação que cresceu a partir da interconexão global e da cooperação internacional. Exorto os meus homólogos em todo o mundo a reunirem-se e a criarem um quadro consensual de leis básicas universais para a IA. Este quadro fornecerá a estrutura a partir da qual conceberemos uma variedade de legislações, desde a propriedade intelectual até à pegada de carbono computacional. Acima de tudo, acredito firmemente na nossa capacidade colectiva de reimaginar uma nova abordagem à governação da IA, que seja ágil, multilateral e, o mais importante, que seja agora.