Home Economia Ditaduras serão vulneráveis ​​a algoritmos

Ditaduras serão vulneráveis ​​a algoritmos

Por Humberto Marchezini


A IA é frequentemente considerada uma ameaça às democracias e uma bênção para os ditadores. Em 2025, é provável que os algoritmos continuem a minar o diálogo democrático, espalhando indignação, notícias falsas e teorias da conspiração. Em 2025, os algoritmos continuarão também a agilizar a criação de regimes de vigilância total, nos quais toda a população é vigiada 24 horas por dia.

Mais importante ainda, a IA facilita a concentração de todas as informações e poder num único centro. No século XX, as redes de informação distribuídas como as dos EUA funcionavam melhor do que as redes de informação centralizadas como a URSS, porque os apparatchiks humanos no centro simplesmente não conseguiam analisar toda a informação de forma eficiente. Substituir apparatchiks por IAs pode tornar as redes centralizadas de estilo soviético superiores.

No entanto, a IA não é apenas uma boa notícia para os ditadores. Primeiro, existe o notório problema de controle. O controlo ditatorial baseia-se no terror, mas os algoritmos não podem ser aterrorizados. Na Rússia, a invasão da Ucrânia é definida oficialmente como uma “operação militar especial”, e referir-se a ela como uma “guerra” é um crime punível com até três anos de prisão. Se um chatbot na Internet russa chama-lhe “guerra” ou menciona os crimes de guerra cometidos pelas tropas russas, como poderia o regime punir esse chatbot? O governo poderia bloqueá-lo e tentar punir os seus criadores humanos, mas isto é muito mais difícil do que disciplinar os utilizadores humanos. Além disso, os bots autorizados podem desenvolver opiniões divergentes por si próprios, simplesmente detectando padrões na esfera da informação russa. Esse é o problema do alinhamento, ao estilo russo. Os engenheiros humanos da Rússia podem fazer o seu melhor para criar IAs que estejam totalmente alinhadas com o regime, mas dada a capacidade da IA ​​de aprender e mudar por si só, como podem os engenheiros garantir que uma IA que obteve o selo de aprovação do regime em 2024 não o fará? não se aventurará em território ilícito em 2025?

A Constituição Russa faz promessas grandiosas de que “a todos será garantida a liberdade de pensamento e de expressão” (Artigo 29.1) e “a censura será proibida” (29.5). Quase nenhum cidadão russo é suficientemente ingénuo para levar a sério estas promessas. Mas os bots não entendem o duplo sentido. Um chatbot instruído a aderir à lei e aos valores russos pode ler essa constituição, concluir que a liberdade de expressão é um valor russo fundamental e criticar o regime de Putin por violar esse valor. Como poderiam os engenheiros russos explicar ao chatbot que, embora a constituição garanta a liberdade de expressão, o chatbot não deveria realmente acreditar na constituição nem deveria nunca mencionar a lacuna entre a teoria e a realidade?

A longo prazo, os regimes autoritários enfrentarão provavelmente um perigo ainda maior: em vez de os criticarem, as IA poderão ganhar controlo sobre eles. Ao longo da história, a maior ameaça aos autocratas geralmente veio dos seus próprios subordinados. Nenhum imperador romano ou primeiro-ministro soviético foi derrubado por uma revolução democrática, mas estiveram sempre em perigo de serem depostos ou transformados em marionetas pelos seus próprios subordinados. Um ditador que conceda demasiada autoridade às IAs em 2025 poderá tornar-se o seu fantoche no futuro.

As ditaduras são muito mais vulneráveis ​​do que as democracias a tal aquisição algorítmica. Seria difícil, mesmo para uma IA supermaquiavélica, acumular poder num sistema democrático descentralizado como os Estados Unidos. Mesmo que a IA aprenda a manipular o presidente dos EUA, poderá enfrentar oposição do Congresso, do Supremo Tribunal, dos governadores estaduais, dos meios de comunicação social, de grandes empresas e de diversas ONG. Como o algoritmo, por exemplo, lidaria com uma obstrução do Senado? Tomar o poder num sistema altamente centralizado é muito mais fácil. Para hackear uma rede autoritária, a IA precisa manipular apenas um único indivíduo paranóico.



Source link

Related Articles

Deixe um comentário