Home Tecnologia Como saber se sua IA está consciente

Como saber se sua IA está consciente

Por Humberto Marchezini


Você já conversou com alguém que está “na consciência”? Como foi essa conversa? Eles fizeram um gesto vago no ar com as duas mãos? Eles fizeram referência ao Tao Te Ching ou a Jean-Paul Sartre? Eles disseram que, na verdade, não há nada sobre o qual os cientistas possam ter certeza e que a realidade só é tão real quanto imaginamos?

A imprecisão da consciência, a sua imprecisão, tornou o seu estudo um anátema nas ciências naturais. Pelo menos até recentemente, o projecto foi largamente deixado aos filósofos, que muitas vezes eram apenas marginalmente melhores do que outros no esclarecimento do seu objecto de estudo. Hod Lipson, roboticista da Universidade de Columbia, disse que algumas pessoas em sua área se referiam à consciência como “a palavra com C”. Grace Lindsay, neurocientista da Universidade de Nova York, disse: “Havia essa ideia de que você não pode estudar a consciência até ter estabilidade”.

No entanto, há algumas semanas, um grupo de filósofos, neurocientistas e cientistas da computação, entre eles o Dr. Lindsay, propôs uma rubrica para determinar se um sistema de IA como o ChatGPT poderia ser considerado consciente. O relatórioLindsay chama de “nova” ciência da consciência, reúne elementos de meia dúzia de teorias empíricas nascentes e propõe uma lista de qualidades mensuráveis ​​que podem sugerir a presença de alguma presença em uma máquina.

Por exemplo, a teoria do processamento recorrente concentra-se nas diferenças entre a percepção consciente (por exemplo, estudar ativamente uma maçã à sua frente) e a percepção inconsciente (como a sensação de uma maçã voando em direção ao seu rosto). Os neurocientistas argumentam que percebemos inconscientemente as coisas quando os sinais eléctricos são passados ​​dos nervos dos nossos olhos para o córtex visual primário e depois para partes mais profundas do cérebro, como um bastão que é passado de um conjunto de nervos para outro. Essas percepções parecem tornar-se conscientes quando o bastão é passado de volta, das partes mais profundas do cérebro para o córtex visual primário, criando um ciclo de atividade.

Outra teoria descreve seções especializadas do cérebro que são usadas para tarefas específicas – a parte do cérebro que pode equilibrar o corpo pesado em um pula-pula é diferente da parte do cérebro que pode absorver uma paisagem extensa. Somos capazes de reunir todas essas informações (você pode pular em um pula-pula enquanto aprecia uma bela vista), mas apenas até certo ponto (fazer isso é difícil). Assim, os neurocientistas postularam a existência de um “espaço de trabalho global” que permite o controle e a coordenação sobre aquilo a que prestamos atenção, o que lembramos e até mesmo o que percebemos. Nossa consciência pode surgir deste espaço de trabalho integrado e mutável.

Mas também pode surgir da capacidade de estar consciente da sua própria consciência, de criar modelos virtuais do mundo, de prever experiências futuras e de localizar o seu corpo no espaço. O relatório argumenta que qualquer uma destas características poderia, potencialmente, ser uma parte essencial do que significa estar consciente. E, se formos capazes de discernir estas características numa máquina, então poderemos considerar a máquina consciente.

Uma das dificuldades desta abordagem é que os sistemas de IA mais avançados são redes neurais profundas que “aprendem” a fazer as coisas por si próprios, de formas que nem sempre são interpretáveis ​​pelos humanos. Podemos colher alguns tipos de informação da sua estrutura interna, mas apenas de forma limitada, pelo menos por enquanto. Este é o problema da caixa preta da IA. Portanto, mesmo que tivéssemos uma rubrica de consciência completa e exata, seria difícil aplicá-la às máquinas que usamos todos os dias.

E os autores do relatório recente são rápidos em notar que a sua lista não é definitiva do que torna alguém consciente. Eles baseiam-se numa abordagem de “funcionalismo computacional”, segundo a qual a consciência é reduzida a pedaços de informação transmitidos de um lado para o outro dentro de um sistema, como numa máquina de pinball. Em princípio, de acordo com esta visão, uma máquina de pinball poderia ser consciente, se fosse muito mais complexa. (Isso pode significar que não é mais uma máquina de pinball; vamos cruzar essa ponte se chegarmos a esse ponto.) Mas outros propuseram teorias que consideram nossas características biológicas ou físicas, contextos sociais ou culturais, como peças essenciais de consciência. É difícil ver como essas coisas poderiam ser codificadas em uma máquina.

E mesmo para os pesquisadores que estão amplamente de acordo com o funcionalismo computacional, nenhuma teoria existente parece suficiente para a consciência.

“Para que qualquer uma das conclusões do relatório seja significativa, as teorias têm de estar corretas”, disse o Dr. Lindsay. “O que eles não são.” Isso pode ser o melhor que podemos fazer por enquanto, acrescentou ela.

Afinal, parece que alguma destas características, ou todas elas combinadas, compreendem o que William James descreveu como o “calor” da experiência consciente? Ou, nas palavras de Thomas Nagel, “como é” ser você? Há uma lacuna entre as maneiras pelas quais podemos medir a experiência subjetiva com a ciência e a própria experiência subjetiva. Isto é o que David Chalmers rotulou de “problema difícil” da consciência. Mesmo que um sistema de IA tenha processamento recorrente, um espaço de trabalho global e uma noção da sua localização física – e se ainda lhe faltar aquilo que o torna sinto como algo?

Quando mencionei esse vazio a Robert Long, filósofo do Centro para Segurança de IA que liderou o trabalho no relatório, ele disse: “Esse sentimento é algo que acontece sempre que você tenta explicar cientificamente ou reduzi-lo a processos físicos. , algum conceito de alto nível.

As apostas são altas, acrescentou; Os avanços na IA e na aprendizagem automática estão a ocorrer mais rapidamente do que a nossa capacidade de explicar o que se passa. Em 2022, Blake Lemoine, engenheiro do Google, argumentou que o chatbot LaMDA da empresa era consciente (embora a maioria dos especialistas discordasse); a maior integração da IA ​​generativa nas nossas vidas significa que o tema pode tornar-se mais controverso. Dr. Long argumenta que temos que começar a fazer algumas afirmações sobre o que pode ser consciente e lamenta a forma “vaga e sensacionalista” como temos feito isso, muitas vezes confundindo experiência subjetiva com inteligência geral ou racionalidade. “Este é um problema que enfrentamos agora e nos próximos anos”, disse ele.

Como disse Megan Peters, neurocientista da Universidade da Califórnia, em Irvine, e autora do relatório: “Se há alguém lá ou não, faz uma grande diferença na forma como o tratamos”.

Já fazemos este tipo de investigação com animais, exigindo um estudo cuidadoso para fazer a afirmação mais básica de que outras espécies têm experiências semelhantes às nossas, ou mesmo compreensíveis para nós. Isso pode se assemelhar a uma atividade de diversão, como atirar flechas empíricas de plataformas móveis em direção a alvos que mudam de forma, com arcos que ocasionalmente acabam sendo espaguete. Mas às vezes acertamos. Como Peter Godfrey-Smith escreveu em seu livro “Metazoa”, os cefalópodes provavelmente têm um tipo de experiência subjetiva robusta, mas categoricamente diferente da dos humanos. Os polvos têm cerca de 40 milhões de neurônios em cada braço. Como é isso?

Contamos com uma série de observações, inferências e experimentos – organizados ou não – para resolver este problema de outras mentes. Falamos, tocamos, brincamos, levantamos hipóteses, cutucamos, controlamos, radiografamos e dissecamos, mas, em última análise, ainda não sabemos o que nos torna conscientes. Nós apenas sabemos que somos.



Source link

Related Articles

Deixe um comentário