Home Saúde O que a IA generativa revela sobre a mente humana

O que a IA generativa revela sobre a mente humana

Por Humberto Marchezini


GIA nerativa – pense em Dall.E, ChatGPT-4 e muitos mais – está na moda. Os seus sucessos notáveis, e ocasionais fracassos catastróficos, deram início a debates importantes sobre o alcance e os perigos das formas avançadas de inteligência artificial. Mas o que este trabalho revela, se é que revela alguma coisa, sobre inteligências naturais como a nossa?

Sou um filósofo e cientista cognitivo que passou toda a sua carreira tentando entender como funciona a mente humana. Com base em pesquisas que abrangem psicologia, neurociência e inteligência artificial, minha pesquisa me levou a uma imagem de como as mentes naturais funcionam que é ao mesmo tempo interessantemente semelhante, mas também profundamente diferente, dos princípios operacionais centrais das IAs generativas. Examinar esse contraste pode nos ajudar a compreender melhor ambos.

As IAs aprendem um modelo generativo (daí o seu nome) que lhes permite prever padrões em vários tipos de dados ou sinais. O que isso significa generativo é que eles aprendem o suficiente sobre as regularidades profundas em alguns conjuntos de dados para lhes permitir criar novas versões plausíveis desse tipo de dados para si próprios. No caso do ChatGPT os dados são texto. Conhecer todos os muitos padrões fracos e fortes em uma enorme biblioteca de textos permite que o ChatGPT, quando solicitado, produza versões plausíveis desse tipo de dados de maneiras interessantes, quando esculpidos por solicitações do usuário – por exemplo, um usuário pode solicitar uma história sobre um gato preto escrito no estilo de Ernest Hemingway. Mas também existem IAs especializadas em outros tipos de dados, como imagens, que lhes permitem criar novas pinturas no estilo, por exemplo, de Picasso.

O que isso tem a ver com a mente humana? De acordo com muitas teorizações contemporâneas, o cérebro humano também aprendeu um modelo para prever certos tipos de dados. Mas, neste caso, os dados a prever são as diversas barragens de informação sensorial registadas pelos sensores nos nossos olhos, ouvidos e outros órgãos perceptivos. Agora vem a diferença crucial. Os cérebros naturais devem aprender a prever esses fluxos sensoriais num tipo de contexto muito especial – o contexto da utilização da informação sensorial para selecionar ações que nos ajudem a sobreviver e a prosperar nos nossos mundos. Isto significa que, entre as muitas coisas que o nosso cérebro aprende a prever, um subconjunto central diz respeito às formas como as nossas próprias ações no mundo irão alterar o que sentimos posteriormente. Por exemplo, meu cérebro aprendeu que se eu acidentalmente pisar no rabo do meu gato, os próximos estímulos sensoriais que receberei muitas vezes incluirão avistamentos de lamentos, contorções e, ocasionalmente, sentimentos de dor devido a um arranhão retaliatório bem merecido.

Leia mais: IA e a ascensão da mediocridade

Esse tipo de aprendizagem tem virtudes especiais. Isso nos ajuda a separar causa e correlação simples. Ver meu gato está fortemente relacionado com ver os móveis do meu apartamento. Mas nenhum deles faz com que o outro ocorra. Pisar no rabo do meu gato, por outro lado, causa gemidos e arranhões subsequentes. Saber a diferença é crucial se você é uma criatura que precisa agir em seu mundo para provocar os efeitos desejados (ou evitar os indesejados). Por outras palavras, o modelo generativo que emite previsões naturais é limitado por um objectivo familiar e biologicamente crítico – a selecção das acções certas a realizar nos momentos certos. Isso significa saber como as coisas estão atualmente e (crucialmente) como as coisas mudarão e se alterarão se agirmos e intervirmos no mundo de determinadas maneiras.

Como o ChatGPT e outras IAs contemporâneas se parecem quando comparados com esta compreensão dos cérebros e mentes humanas? Obviamente, as IAs atuais tendem a se especializar em prever tipos de dados bastante específicos – sequências de palavras, no caso do ChatGPT. À primeira vista, isto sugere que o ChatGPT pode ser mais propriamente visto como um modelo dos nossos resultados textuais, em vez de modelos (como os cérebros biológicos) do mundo em que vivemos. Mas esse movimento é sem dúvida um pouco rápido demais. As palavras, como atesta a riqueza da literatura excelente e não tão boa, já retratam padrões de todos os tipos – padrões entre aparências, gostos e sons, por exemplo. Isto dá às IAs generativas uma janela real para o nosso mundo. Contudo, ainda falta aquele ingrediente crucial: a ação. Na melhor das hipóteses, as IAs preditivas de texto obtêm uma espécie de rastro verbal fóssil dos efeitos de nossas ações no mundo. Essa trilha é composta de descrições verbais de ações (“Andy pisou no rabo de seu gato”) junto com informações expressas verbalmente sobre seus efeitos e consequências típicos. Apesar disso, as IAs não têm capacidades práticas para intervir no mundo – portanto, não há forma de testar, avaliar e melhorar o seu próprio modelo de mundo, aquele que faz as previsões.

Esta é uma limitação prática importante. É como se alguém tivesse acesso a uma enorme biblioteca de dados relativos à forma e aos resultados de todas as experiências anteriores, mas não fosse capaz de conduzir nenhuma delas por conta própria. Mas também pode ter um significado mais profundo. Pois é plausível que seja apenas cutucando, cutucando e geralmente intervindo em nossos mundos que as mentes biológicas ancoram seu conhecimento no próprio mundo que pretende descrever. Ao aprender o que causa o quê e como diferentes ações afetarão nossos mundos futuros de maneiras diferentes, construímos uma base sólida para nossos próprios entendimentos posteriores. É essa base nas ações e em seus efeitos que mais tarde nos permite compreender verdadeiramente frases como “O gato arranhou a pessoa que pisou em seu rabo”. Os nossos modelos generativos – ao contrário dos das IAs generativas – são forjados no fogo da ação.

Será que as futuras IAs também poderão construir modelos ancorados desta forma? Será que eles poderiam começar a realizar experimentos nos quais lançassem respostas ao mundo para ver quais efeitos essas respostas têm? Algo parecido com isto já ocorre no contexto da publicidade online, das campanhas políticas e da manipulação das redes sociais, onde os algoritmos podem lançar anúncios, publicações e relatórios e ajustar o seu comportamento futuro de acordo com efeitos específicos sobre compradores, eleitores e outros. Se IAs mais poderosas fechassem o ciclo de acção desta forma, começariam a transformar a sua janela actualmente passiva e “de segunda mão” para o mundo humano em algo mais próximo do tipo de controlo que seres activos como nós têm sobre os nossos mundos.

Mas mesmo assim, faltariam outras coisas. Muitas das previsões que estruturam a experiência humana dizem respeito aos nossos próprios estados fisiológicos internos. Por exemplo, sentimos sede e fome de formas profundamente antecipatórias, o que nos permite remediar antecipadamente deficiências iminentes, de modo a permanecermos na zona correta para a integridade corporal e a sobrevivência. Isto significa que existimos num mundo onde algumas das previsões do nosso cérebro são importantes de uma forma muito especial. Eles são importantes porque nos permitem continuar a existir como seres encarnados e metabolizadores de energia que somos. Nós, humanos, também beneficiamos enormemente das práticas colectivas de cultura, ciência e arte, permitindo-nos partilhar o nosso conhecimento e sondar e testar os nossos melhores modelos de nós próprios e dos nossos mundos.

Além disso, nós, humanos, somos o que poderia ser chamado de “conhecedores conhecedores” – nós nos retratamos como possuidores de conhecimentos e crenças, e lentamente projetamos os mundos complexos da arte, da ciência e da tecnologia para testar e melhorar nossos próprios conhecimentos e crenças. . Por exemplo, podemos escrever artigos que façam afirmações que sejam rapidamente contestadas por outros e depois realizar experiências para tentar resolver as diferenças de opinião. De todas estas formas (mesmo colocando entre parênteses questões óbvias mas actualmente intratáveis ​​sobre a “verdadeira consciência consciente”) parece haver um abismo muito grande que separa os nossos tipos especiais de conhecimento e compreensão de qualquer coisa até agora alcançada pelas IAs.

Será que um dia as IA poderão tornar-se máquinas de previsão com um instinto de sobrevivência, executando previsões de base que procurem proativamente criar e manter as condições para a sua própria existência? Poderiam assim tornar-se cada vez mais autónomos, protegendo o seu próprio hardware e fabricando e consumindo energia conforme necessário? Poderiam formar uma comunidade e inventar um tipo de cultura? Eles poderiam começar a se modelar como seres com crenças e opiniões? Não há nada na situação atual que os leve a seguir essas direções familiares. Mas nenhuma destas dimensões está obviamente fora dos limites. Se as mudanças ocorressem ao longo de todas ou de algumas dessas dimensões-chave que faltam, ainda poderíamos estar vislumbrando a alma de uma nova máquina.



Source link

Related Articles

Deixe um comentário