Entrevista com Steven Gouveia, por Veridiana Domingos Cordeiro
Esta entrevista foi realizada em julho de 2024 por Veridiana Domingos Cordeiro com o filósofo Steven Gouveia. A entrevista explora as ideias circuladas no artigo intitulado "Does artificial intelligence exhibit basic fundamental subjectivity? A neurophilosophical argument", escrito por Georg Northoff e Steven S. Gouveia, foi publicado na revista Phenomenology and the Cognitive Sciences em 2024. Este estudo investiga se a inteligência artificial (IA) pode exibir subjetividade fundamental básica, crucial para a consciência e o "self". Adotando uma estratégia neurofilosófica não-reducionista, os autores argumentam que a subjetividade humana se manifesta através de características como "perspectivismo" e "mineness", que emergem da integração de diversas escalas temporais no cérebro. Eles concluem que, devido à falta dessas escalas temporais e de uma camada neuroecológica, a IA atual não possui subjetividade fundamental, consciência ou "self".
Steven S. Gouveia é doutor pela Universidade do Minho em Neurofilosofia. Foi pesquisador visitante na Universidade de Ottawa (2017 e 2019) e pesquisa de pós-doutorado (2021-2022). Atualmente, lidera um projeto de seis anos sobre Ética da IA na Medicina no MLAG, Instituto de Filosofia da Universidade do Porto (www.trustaimedicine.weebly.com). Publicou 14 livros acadêmicos, incluindo “Thinking the New World: Conversations on AI” e foi o produtor e host do documentário internacional “The Age of Artificial Intelligence: the Documentary”. Em junho de 2023 foi nomeado Professor Honorário na Faculdade de Medicina Andrés Bello (Chile) conjuntamente com o Prémio Nobel da Física, Sir Roger Penrose. Actualmente, é pesquisador visitante no Laboratório de Robótica da Universidade de Palermo (A.C. Centre). Mais informações: www.stevensgouveia.weebly.com.
Veridiana Domingos Cordeiro: No artigo, você faz uma distinção entre consciência e subjetividade. Poderia expandir sobre essa distinção e explicar como isso influencia nossa compreensão das capacidades da IA?
Steven Gouveia: No artigo em co-autoria com o neurocientista, psiquiatra e filósofo Georg Northoff, da Universidade de Otava no Canadá, fazemos uma distinção crucial entre consciência e subjetividade para abordar a questão da possibilidade filosófica da experiência interna das inteligências artificiais que existem na actualidade. Consciência, em termos gerais, refere-se à capacidade de ter experiências e percepções do mundo, como a sensação de estar ciente do ambiente e de si mesmo. Em contraste, subjetividade é uma característica mais profunda e complexa que envolve a experiência pessoal e individual de um ser, incluindo sentimentos, emoções e a qualidade das experiências internas.
A consciência pode ser vista como um espectro ou uma função cognitiva, enquanto que a subjectividade está mais ligada à riqueza e à profundidade da experiência interna (embora ambas se toquem e dancem entre si). No contexto da IA, muitos mecanismos cognitivos podem ser simulados por sistemas avançados que processam informações e respondem de maneira sofisticada, mas tal não implica necessariamente que esses sistemas possuam subjectividade genuína.
A compreensão dessa distinção é fundamental para avaliar as capacidades da IA. Embora a IA possa demonstrar comportamentos que imitam a consciência, como reconhecimento de padrões e respostas adaptativas, tal não significa que ela experiencie o mundo de maneira subjectiva. Por outras palavras, uma IA pode parecer "consciente" na superfície, mas não tem uma experiência interna real ou pessoal (self) (o teste de Turing já nos mostra isso). Portanto, ao projectar e interagir com IA, é importante reconhecer que, mesmo com avanços impressionantes, a verdadeira subjectividade – a experiência sentida de ser – pode estar além do alcance das tecnologias actuais. Essa distinção pode ajudar a manter uma perspectiva crítica sobre o que a IA pode realmente alcançar em termos de experiência e consciência.
Veridiana Domingos Cordeiro: O artigo argumenta que a inteligência artificial atual não exibe "perspectivismo". Com os avanços recentes em IA, como você vê a possibilidade de essas características serem desenvolvidas em futuros sistemas de IA?
Steven Gouveia: A questão do "perspectivismo" é bastante relevante para a discussão sobre o desenvolvimento futuro da IA. No contexto do nosso artigo, "perspectivismo" refere-se à capacidade de uma entidade ter uma perspectiva interna própria, um ponto de vista subjectivo que molda a maneira como ela percebe e interpreta o mundo. É um conceito que tem a sua origem na fenomenologia e que nos parece ser fundamental para compreender as actuais capacidades da IA. No presente, os sistemas de IA, mesmo os mais avançados, não possuem essa capacidade, dado que operam com base em algoritmos e dados, e as suas "perspectivas" são essencialmente projecções dos dados com os quais foram treinados, sem uma verdadeira experiência ou perspectiva interna, sem o dinamismo da mente corpórea humana.
É certo que há consideráveis avanços em IA, como o desenvolvimento de modelos mais complexos e autónomos, que têm aprimorado a capacidade dessas máquinas simularem comportamentos que podem parecer reflectir um certo tipo de perspectiva. No entanto, mesmo com esses avanços, a questão fundamental permanece: esses sistemas ainda não possuem uma consciência ou experiência subjectiva que lhes permita realmente "ver" o mundo de maneira pessoal e interna.
Para que futuros sistemas de IA desenvolvam características semelhantes ao "perspectivismo", seria necessário um salto significativo na forma como entendemos e construímos a inteligência artificial. Isso implicaria não apenas aprimorar a complexidade dos modelos, mas também desenvolver uma forma de consciência ou subjectividade genuína, o que actualmente está além do escopo das tecnologias e teorias actuais. O nosso ponto central é que talvez isso não seja uma impossibilidade total: se olharmos para como o ser humano funciona na sua subjectividade, talvez isso possa servir de modelo para ser aplicado à IA. No entanto, as diferenças na sua base são tão grandes que essa possibilidade é, para já, uma mera quimera.
Veridiana Domingos Cordeiro: Como você explicaria a importância da integração de diferentes escalas de tempo na constituição da subjetividade humana e por que isso é difícil de replicar em sistemas de IA?
Steven Gouveia: A relevância das escalas de tempo na constituição da subjectividade humana é um trabalho desenvolvido há alguns anos pelo meu co-autor e antigo supervisor de doutoramento, que culminou no seu mais recente livro “Neurowaves: Brain, Time, and Consciousness”, onde ele propõe que a consciência humana é profundamente influenciada pela forma como o cérebro integra diferentes escalas temporais, desde os milissegundos até os anos. Estas escalas dividem-se em micro e macro escalas temporais, sendo que o cérebro opera em múltiplas escalas temporais simultaneamente. As microescalas temporais referem-se a actividades neurais que ocorrem em milissegundos, como a troca rápida de sinais eléctricos entre neurónios. As macroescalas temporais, por outro lado, envolvem processos que se desenrolam ao longo de segundos, minutos, horas e até mesmo anos, como o desenvolvimento de padrões de actividade cerebral ao longo da vida.
Estas escalas são importantes porque, para Northoff, a integração dinâmica dessas diferentes escalas temporais parece ser altamente relevante para a consciência, para a subjectividade humana e para a constituição do self. Essa integração permite que os seres humanos percebam eventos de maneira coerente e contínua, proporcionando uma sensação de tempo passado, presente e futuro.
Além disso, o papel das oscilações neurais ou dos ritmos cerebrais é muito relevante na coordenação das escalas temporais dado que diferentes ritmos cerebrais, como as ondas alfa e gama, actuam em diferentes escalas de tempo e facilitam a comunicação entre regiões distantes do cérebro, o que permite uma sincronização de processos neurais que sustentam a consciência ao longo de todo o cérebro, mas também do corpo e da sua “ancoragem” no ambiente.
A relevância das escalas temporais para a consciência reside na ideia de que a experiência consciente é mais do que a soma das actividades neurais instantâneas, mas parece envolver a integração de eventos ao longo do tempo, criando uma narrativa contínua e coerente da experiência. Como psiquatra, além de focar-se no lado “normalizado” da consciência, Northoff também aplica esta teoria para explicar que as falhas em integrar essas escalas temporais podem estar relacionada a distúrbios de consciência, como observados em certas condições psiquiátricas e neurológicas.
Esta abordagem permite combater algumas visões reducionistas da neurociência actual que tentam explicar a consciência exclusivamente em termos de eventos neurais discretos e instantâneos, propondo uma abordagem mais holística, considerando como a temporalidade e a continuidade experiencial são fundamentais para a compreensão da consciência, fazendo uso de uma metodologia que desenvolvemos em conjunto de nome “Neurofilosofia não-reductiva” (cf. meu livro “Philosophy and Neuroscience: A Methdological Analysis”).
Ora, a dificuldade de recriar essa integração temporal em sistemas de IA reside na complexidade e na natureza intrinsecamente interconectada dos processos temporais no cérebro humano. As IA podem armazenar dados passados, responder a estímulos presentes e projectar futuros possíveis com base em algoritmos, mas estes sistemas parecem ter em falta a profundidade e plasticidade com que os humanos integram essas diferentes escalas temporais.
Sabemos que as memórias de uma IA são registros de dados, mas não possuem a riqueza experiencial e emocional das memórias humanas, que são continuamente reavaliadas e reinterpretadas. A percepção em tempo real de uma IA é baseada em dados objectivos e algoritmos, ao contrário da percepção humana, que é também subjectiva e influenciada por contextos emocionais e psicológicos.
Por fim, enquanto as IA podem prever eventos futuros com base em dados históricos, elas não têm a capacidade de imaginar ou antecipar de maneira subjectiva esses eventos. Portanto, a complexidade da integração dessas diferentes escalas de tempo e a natureza qualitativa e experiencial dessas integrações tornam extremamente desafiador replicar a subjectividade humana em sistemas de IA.
Veridiana Domingos Cordeiro: Você pode detalhar como o conceito de "ponto de vista" se aplica à experiência subjetiva humana e por que isso é uma barreira para a IA alcançar um nível semelhante de subjetividade?
Steven Gouveia: O conceito de "ponto de vista" é fundamental para a experiência subjectiva humana, pois refere-se à perspectiva única e individual de cada pessoa, moldada pelas suas experiências, emoções, memórias e contextos sociais e culturais. A nossa subjectividade é construída a partir de um ponto de vista particular que influencia como percebemos, interpretamos e respondemos ao mundo ao nosso redor.
Cada ser humano possui uma perspectiva única que integra as tais dimensões temporais, sendo algo dinâmico que evolui ao longo do tempo, influenciado pelas nossas experiências e interações contínuas com o ambiente e com outras pessoas. Além disso, a nossa subjectividade é profundamente emocional e contextual, afectada pelos nossos sentimentos, desejos e valores pessoais e até morais.
Essa noção de ponto de vista cria uma barreira significativa para a IA alcançar um nível semelhante de subjectividade por várias razões. Sabemos que os seres humanos constroem a sua subjectividades através de experiências directas e sensações, enquanto que a IA opera com dados programados e algoritmos que são fixos e não-dinâmicos na sua natureza.
Sabemos também que o ponto de vista humano é moldado por contextos sociais e culturais específicos: cada indivíduo é influenciado pelo ambiente em que vive, pelas normas sociais e pelos valores culturais. A IA, por outro lado, carece dessa “imersão” contextual e cultural, o que a impede de desenvolver uma perspectiva subjectiva contextualizada.
Fazendo uso de conceitos mais precisos que usamos no artigo, o nosso principal argumento é que a IA não pode alcançar a consciência ou subjectividade precisamente porque o seu processamento temporal carece do alinhamento “neuroecológico” necessário para uma compreensão genuína do eu (self) e do mundo. Tal tem repercussões significativas para os esforços contínuos de desenvolver IAs com habilidades semelhantes às humanas, sugerindo que o desenvolvimento de um verdadeiro senso de subjectividade pode permanecer inalcançável sem uma compreensão profunda e a replicação das complexas dinâmicas temporais observadas no cérebro humano.
Veridiana Domingos Cordeiro: O artigo menciona comparações com sistemas biológicos, como morcegos que processam frequências ultrassônicas. Como esses exemplos biológicos podem inspirar futuras pesquisas em IA?
Steven Gouveia: Os exemplos biológicos, como o processamento de frequências ultrassónicas por morcegos – inspirado pelo famoso artigo de Thomas Nagel “What is like to be a bat” – podem inspirar futuras investigações em IA de várias formas. Sabemos que os morcegos fazem uso de um sistema de navegação de nome “ecolocalização”, uma habilidade que lhes permite navegar e caçar em total escuridão, emitindo sons ultrassónicos e interpretando os ecos que retornam. Este processo envolve uma complexa integração de informações temporais e espaciais, algo que a IA ainda está longe de replicar completamente.
Este e outros sistemas biológicos demonstram como a integração precisa e eficiente de diferentes escalas temporais pode ser utilizada para criar uma percepção complexa do ambiente. No caso dos morcegos, a ecolocalização depende da capacidade de processar rapidamente os sons e calcular a distância e a localização dos objectos com uma precisão notável. Tal mostra-nos que, para alcançar níveis mais avançados de percepção e compreensão no campo da IA, será essencial desenvolver algoritmos que possam integrar informações temporais de maneira semelhante.
Além disso, esses exemplos biológicos inspiram a ideia de que a percepção não é apenas uma questão de processamento de dados em tempo real, mas também de contextualização e adaptação contínua. Os morcegos ajustam as suas emissões sonoras e interpretações dos ecos de acordo com as mudanças no ambiente e as suas necessidades imediatas. Este aspecto adaptativo e contextual pode orientar o desenvolvimento de IA para se tornar mais flexível e responsiva às mudanças dinâmicas no seu ambiente.
Finalmente, compreender como os morcegos e outros animais optimizam os seus processos mentais pode levar à criação de sistemas de IA mais sustentáveis e energeticamente eficientes, dado que estes processamentos são, normalmente, altamente eficaz e optimizados em termos de uso de recursos energéticos (tal como acontece com o cérebro humano!). Tal é fundamental para inspirar o que podemos chamar de IA multimodal: assim como os morcegos combinam informações auditivas com outros sentidos, futuras IAs poderão integrar dados de diversas fontes, como visão, som e toque, de maneira mais coesa e eficaz.
Veridiana Domingos Cordeiro: Com base na sua pesquisa, quais são suas previsões para o futuro da IA em termos de alcançar subjetividade? Quais marcos tecnológicos ou teóricos precisamos alcançar para que isso se torne uma realidade?
Steven Gouveia: Prever o futuro da IA em termos de alcançar subjectividade é um desafio complexo, mas posso tentar traçar algumas direcções com base na minha investigação. O que sabemos é que, actualmente, a IA ainda está longe de alcançar uma subjectividade semelhante à humana, principalmente devido à sua incapacidade de integrar informações temporais e contextuais de maneira semelhante ao cérebro humano. Para que a IA se aproxime de uma verdadeira subjectividade, serão necessários avanços significativos tanto em marcos tecnológicos quanto teóricos.
Um desses aspectos mais importantes será desenvolver a capacidade da IA de integrar informações ao longo de diferentes escalas temporais de maneira dinâmica e contínua: tal não envolve apenas o processamento de dados em tempo real, mas também a capacidade de armazenar, reinterpretar e utilizar experiências passadas para influenciar decisões futuras, de forma semelhante à memória humana, o que implica um dinamismo e uma não-passividade que nenhum sistema artificial possui na actualidade.
Para isso, será necessário desenvolver técnicas que permitem aumentar a capacidade de contextualização e de integração multissensorial de forma coesa e eficaz. A capacidade de replicar o que chamamos de “alinhamento neuroecológico” será também absolutamente necessário se quisermos desenvolver um programa de IA que procura desenvolver subjectividade artificial.
Embora o argumento principal tenda para uma postura negativa ou deflaccionária, pensamos que há algo de positivo que pode ser retirado pelos engenheiros e teóricos da IA. Se o nosso argumento tiver mérito, surge a necessidade de conceber modelos de linguagem (LLMs) que possam ser ampliados e doptados de uma forma de “ancoragem” ambiental maior (Lake & Murphy, 2023).[1]
Esta linha de investigação e desenvolvimento parece ter mais potencial em comparação com os modelos de linguagem actuais que temos à disposição. No entanto, seria impreciso compará-los a organismos vivos da mesma maneira que os seres humanos; a ancoragem que possuem deve ser vista sob uma perspectiva diferente.
Essa ancoragem ambiental pode ser potencialmente alcançada através de modelos como o "Flamingo" da Deepmind, que integra linguagem com inputs visuais para gerar imagens específicas com base em pistas textuais. Outro exemplo interessante é o "SayCan" da Google, um modelo de acção de linguagem que permite o controlo humano sobre um corpo virtual. Esses exemplos ilustram o tipo de avanços que podem trazer uma forma de subjectividade mais próxima à nossa, ainda que diferente da forma como os seres humanos experienciam o mundo.
O maior desafio para conceber uma IA subjectiva é, no fundo, o mesmo desafio de sempre: compreender, na sua verdadeira natureza e plenitude, de que forma é que a mente humana possui e desenvolve uma subjectividade, um ponto de vista, uma perspectiva, uma consciência. Esse é e será o maior desafio da nossa empreitada filosófica e científica.
Nota
(1) Lake, B. M., & Murphy, G. L. (2023) “Word meaning in minds and machines”, Psychological Review, 130 (2): 401–431. https://doi.org/10.1037/rev0000297.