FILOSOFÍA DE LA MENTE

Twittear 

EL PROBLEMA MENTE-CEREBRO


  1. DUALISMO DE SUSTANCIAS
    1. Reacciones al dualismo cartesiano
  2. DUALISMO DE PROPIEDADES
    1. La Psicología Pop y laTeoría Representacional de la Mente
    2. La Teoría Computacional de la Mente
      1. Las máquinas de Turing
      2. La Tesis de Turing y el problema de la Turing-computabilidad
    3. El Funcionalismo
  3. EL MONISMO MATERIALISTA
    1. La Teoría de la Identidad mente/cerebro
      1. Identidad de Casos vs. Identidad de Tipos
      2. Críticas a la Teoría de la Identidad mente/cerebro
        1. Crítica lógica: Las leyes de Leibniz
        2. Crítica Metafísica: El Principio de Materialización Múltiple
    2. La Teoría Neurocomputacional de la Mente
    3. El Materialismo Eliminativo
    4. La Teoría Dinamicista de la Mente
    5. El Monismo Anómalo

1. EL DUALISMO DE SUSTANCIAS

        
La primera obra en la que Descartes en la que aparecen los trabajos de psicología y la relación entre la mente y el cuerpo es De homine (1663). Es en esta época cuando Descartes se entera del la acusación a Galileo y ordena que la obra no sea publicada en ese momento.
        Descartes explica en esta obra cómo reacciona la mente ante los estímulos externos. Los estímulos externos afectan a las "fibras nerviosas" que a su vez actúan sobre las "terminaciones centrales" desplazándolas. De esta manera pueden circular los "espíritus animales" actuando sobre los nervios principales responsables de que se produzca un movimiento. 
Este primer intento de explicar la interacción entre la mente y el cuerpo se fundamentaba en la idea de que mente y cuerpo son entidades separadas y que es mediante la glándula pineal como se ponen en contacto. Se admite entonces una interacción en ambas direcciones de la mente y el cuerpo.
         Será en su obra Meditiationes de prima philoophia, in quibus Dei existentia, & animae a corpore distinctio demonstratur (Meditaciones, 1641) en la que Descartes exponga de una forma más sistemática su dualismo metafísico.
El dualismo de Descates es conocido como dualismo de sustancias ya que sostiene que el ser humano es un compuesto de dos sustancias que en ontológicamente distintas. De una lado, el cuerpo, res extensae, cuya propiedad principal es la extensión. El cuerpo es material y ocupa lugar en el espacio por lo que será la mecánica y la física o la biología las ciencias que puedan explicar su funcionamiento.
        El alma, res cogitans, tiene como propiedad esencial el pensamiento y en general realizar tareas cognitivas. Dado que el alma no es material, no puede se estudiada por pueden las ciencias físicas o naturales.
        
El principal problema al que se enfrenta el dualismo es el de explicar cómo pueden interaccionar dos entidades que son ontológicamente distintas. El intento por solucionar este problema dará lugar a diferentes formas de dualismo.
En 1646 terminaría su manuscrito Les passions de l'ame. En las pasiones Descartes ofrece un análisis de las emociones primarias y desarrolla de una forma más extensa su teoría sobre la interacción entre cuerpo y mente. Descartes elige la glándula pineal por ser la única parte del celebró que no está duplicado bilateralmente y porque pensaba, erróneamente, que ese órgano es exclusivo del ser humano.

1.1. REACCIONES AL DUALISMO CARTESIANO

        El problema del dualismo cartesiano es el resultado de admitir por un lado, que la naturaleza humana está escindida entre un cuerpo físico y una mente no material; y por otro, que las relaciones causales se rigen por el principio de que causas y efectos deben siempre ser del mismo tipo. Es concebible pensar que una causa física genere un efecto físico, y que eventos y proceso mentales causen eventos y procesos de naturaleza mental, pero el dualismo de sustancias no puede explicar cómo eventos y procesos físicos pueden causar eventos y procesos mentales,  cómo un estado mental puede causar un estado físico en un organismo.
            
El primer intento por encontrar una solución al problema de la interacción de sustancias fue el ocasionalismo de
Nicolás de Malebranche. En 1774 Malebranche publica De la recherche de la verité en la que sostenía que las dos sustancias cartesianas no tenía relación causal. La única causa verdadera es Dios, y sólo cuando la voluntad de Dios interviene podemos observar las conexiones regulares entre mente y cuerpo. Si una persona tiene el deseo de hacer 'x', entonces Dios tiene la ocasión de intervenir para que el sujeto realice 'x'.

Una nueva forma de dualismo es el paralelismo psicofísico. Leibniz en el Système nouveau de la nature (1695) y en el Eclaircissement su noveau sisteme (1696), presenta la descripción del paralelismo psicofísico. Para el paralelismo, el dualismo de sustancias es compatible con una teoría de la causalidad, evitando la interacción entre sustancias. Entidades metafísicamente distintas no pueden interaccionar unas con otras, así que lo que existe es una simple correlación entre fenómenos mentales y físicos. Cuando se produce un fenómeno mental, otro de naturaleza física se da al mismo tiempo y de ahí la correlación entre ambos.
            
El argumento de Leibniz a favor de paralelismo se estructura sobre la conocida metáfora en la que compara la mente y el cuerpo con dos relojes que están perfectamente sincronizados. Según Leibniz sólo pueden  haber tres formas de explicar la coordinación entre ambos relojes. Por influencia mutua (interaccionismo), mediante el trabajo de un relojero coordinador (ocasionalismo) y pensar que desde un comienzo fueron construidos para su armonía preestablecida (paralelismo). Leibniz rechaza el interaccionismo porque no explica de qué manera pueden interactuar estados o eventos de naturaleza distinta. También rechaza el ocasionalismo porque necesita de la intervención de un Deus ex machina. Lo que queda es el paralelismo y sostener que Dios ha establecido una armonía previa entre mente y cuerpo desde el momento de la creación.

2. DUALISMO DE PROPIEDADES

            El dualismo de propiedades sostiene que sólo existe una única sustancia, pero que esta sustancia tiene propiedades distintas. De un lado tendría propiedades físicas, que se corresponderían con las propiedades fisiológicas del cuerpo. Y de otro lado, tendría propiedades cognitivas o intelectuales, que se corresponderían con los estados y funciones de la mente humana.
            
Spinoza(1632-1677) frente al problema de la interacción que presenta cualquier forma de dualismo de sustancias,  intentará salvaguardar tanto la idea de Dios como una causa verdadera, como la idea de una auténtica causalidad operativa. Para ello Spinoza abandona el dualismo cartesiano en favor de una teoría que se conoce como teoría de aspecto dual. Las teorías de aspecto dual afirman que mente y cuerpo son aspectos distintos de una misma sutancia. Mente y cuerpo en atributos distintos de una única sustancia infinita divina. Dios es la única sustancia universal que garantiza una coordinación preestablecida entre mente y cuerpo. Dios preestablece una coordinación entre mente y cuerpo, que al tratarse de una misma sustancia no puede haber contradicciones entre ambas.
           
            En la actualidad se presentan nuevas formas de dualismo de propiedades  que son compatibles con una posición materialista, al menos eso nos dicen sus autores. En estos casos, tanto la Psicología Pop de Jerry Fodor, como el Funcionalismo, sostienen que nuestra actividad mental es el resultado de la actividad cerebral, de ahí su materialismo. Sin embargo afirman, que un estudio exclusivamente neurofisiológico no nos aportaría nada al conocimiento de la mente humana. Para abordar el estudio de los estados y procesos mentales debemos considerar que aquellos  organismos que muestran una determinada complejidad estructural y neuroanatómica exhiben propiedades de naturaleza neuroquímica, pero también propiedades de naturaleza computacional. La forma adecuada de estudiar estos procesos mentales, es estudiar cómo opera la mente, esto es, cómo la mente efectúa sus cómputos. 

2.1.  LA PSICOLOGÍA POP

La principal característica de los procesos mentales es que tienen un contenido, o lo que es lo mismo, están dirigidos hacia algo, o bien, que hacen referencia a un objeto, acontecimiento o proceso. A esta capacidad de los estados mentales para hacer referencia a algo se llama intencionalidad.
            
El enfoque que propone Jerry Fodor para tratar la intencionalidad se fundamenta en el análisis de la forma lingüística que tienen las oraciones en las que aparecen verbos como «creer», «esperar», «desear » y otros similares. Los enunciados que usan estos verbos tienen una estructura como la de la oración siguiente

(1) "Teresa espera que la película sea divertida"

En este tipo de oraciones el verbo principal  ("espera") viene seguido de la palabra «que» y de una proposición «la película sea divertida». El verbo de la oración permite expresar la actitud de una persona –en este caso Teresa– hacia la proposición, de ahí que Russell llamara a este tipo de oraciones «actitudes proposicionales». Las oraciones de actitud proposicional permiten caracterizar los estados mentales; o dicho de otra manera, un estado mental viene representado por una actitud proposicional. Así, la oración «Jack Sparrow espera recuperar La Perla Negra», representaría el estado mental en el que se encuentra Sparrow –capitán Sparrow– de volver a capitanear La Perla Negra. De esta manera, podemos usar la proposición hacia la que una persona tiene una actitud para identificar el contenido de un estado mental. Por ejemplo, la actitud que tiene Sparrow hacia la proposición «recuperar La Perla Negra» nos indica cuál es el estado mental de Jack Sparrow.

            Al caracterizar los estados mentales en función de las actitudes proposicionales, podemos explicar el comportamiento de las personas en términos de sus creencias, deseos e intenciones 

Psicosemántica

« Lo que quiero explicar es esta diferencia imprensionante entre las capacidades conductuales de Greycat (el gato de Fodor) y las de, digamos, la nebulosa espiral de Andrómeda. Tengo, como suele suceder, notablemente inteligente. 
La teoría es que Greycat –a diferencia de las rocas, los gusanos, las nebulosas y demás cosas por el estilo–ñ tiene, y actúa a partir de, creencias y deseos. Por ejemplo la razón por la que Greycat ronda su cuenco de comida por las mañanas es que quiere comida y cree –ha llegado a creer sobre la base de anteriores comidas– que su cuenco de comida es el lugar habitual para encontrarla. La razón por la que Greycat evita a los perros agresivos, es que los tiene miedo. La razón por la que Greycat araña la puerta, es que quiere salir. Así sucesivamente. Mientras que, en contraste, resulta que las rocas y las cosas por el estilo no tienen creencias ni deseos. Sus «comportamientos» son diferentes de los de Greycat porque son, en ese respecto, causados de una manera diferente. ­» (Fodor (1994). Psicosemántica. El problema del significado en la filosofía de la mente. Madrid, Tecnos. P.12) 

A esta psicología que explica la conducta de los agentes en términos de sus estados mentales Fodor la denomina «Psicología del sentido común de las creencias y los deseos», aunque también se la conoce como Psicología Pop o psicología popular, por ser la forma popular o más extendida con la que explicamos la conducta de los agentes. Para Fodor la Psicología Pop es interesante por tres motivos:

  • Primero: La Psicología Pop goza de buena salud. La Psicología Pop nos permite inferir las intenciones de las personas a partir de lo que nos dicen. También nos permite inferir el comportamiento de las personas a partir de sus intenciones 
  • Segundo : Profundidad de la Teoría. La teoría trata en definitiva de explicar cómo interactúan las creencias, las preferencias y los comportamientos, de forma que podamos establecer generalizaciones sobre la conducta de las personas del tipo: Si A desea hacer ‘x’ y A cree que ‘w’ es necesario para obtener ‘x’, entonces A realizará ‘w’. Lo que la psicología del sentido común supone es que el comportamiento de las personas viene al final de una cadena causal cuyos eslabones son sucesos mentales 
  • Tercero : Indispensabilidad. Carecemos de una alternativa al vocabulario de las explicaciones de la psicología Pop. No tenemos otra forma de describir nuestros comportamientos y sus causas si es que queremos que nuestros comportamientos y sus causas puedan ser explicadas bajo leyes generales. Carecemos de un vocabulario alternativo para decir cosas como “creo que...” o “deseo que” 
            Para Fodor es posible disponer de una psicología científica que dé cuenta las explicaciones que se realizan dentro de la Psicología Pop mediante deseos y creencias. Se trataría de una teoría de base empírica que se comprometa con la existencia de las actitudes proposicionales. A Esta teoría se la conoce como Teoría Representacional de la Mente.  Cuando tenemos la creencia de que mañana va a llover lo que tenemos es una representación de un estado de cosas, una representación de cómo sería el mundo si mañana lloviera. Lo que la Teoría Representacional de la Mente tiene que explicar es cómo conseguimos formar esas representaciones y cómo conseguimos combinar una representaciones con otras para formar representaciones más complejas. Para ello la teoría combina la idea de las representaciones mentales con la “metáfora del ordenador”. Los ordenadores son sistemas que funcionan operando con símbolos (1 y 0). Estos símbolos se combinan entre sí formando cadenas complejas de símbolos gracias a unas reglas de composición y combinación (una sintaxis).
            Fodor va a postular la existencia de un lenguaje del pensamiento, un lenguaje que no debe confundirse con el lenguaje materno con el que nos comunicamos, que sería el lenguaje con el que opera la mente. Gracias a ese lenguaje del pensamiento innato podemos tratar las representaciones como si fueran símbolos y combinarlas entre sí según la sintaxis del propio lenguaje del pensamiento mentalés). Lo que se quiere decir mediante la teoría del lenguaje del pensamiento es que la estructura que tienen nuestros estados mentales se corresponde o es reflejada mediante la estructura sintáctica del lenguaje del pensamiento.

2.2. La Teoría Computacional de la Mente


Antes de analizar la Teoría Computacional de la Mente, vamos a ver la noción clave de "Máquina de Turing"


Biografía de Alan Turing


2.2.1. Máquinas de Turing

 

Una máquina de Turing es una máquina ideal -formalmente hablando se trata de un algoritmo- en dos aspectos básicos. La primera idealización es que su memoria es ilimitada. La segunda es que una máquina de Turing nunca comete errores. A efectos de reprersentar una máquina de Turing, podemos imaginarla como una cinta infinita dividida en cuadros. La máquina propiamente dicha:



a)   Está situada en todo momento justo ante uno de los cuadros.

b)   Lee lo que hay en ese cuadro.

c)   Lleva a cabo una instrucción en el momento siguiente.

 

              La tesis de Turing es que allí donde existe un procedimiento de decisión, una máquina de Turing puede realizarlo. Ahora bien, la existencia de problemas indecidibles significaría que para esa clase de problemas no existiría una máquina de Turing que respondiera  "si" o "no" cuando esta máquina se aplicara a una cinta donde tenemos el problema dado. En particular existe un problema indecidible para cualquier máquina de Turing. Este es el problema conocido como el problema de la parada para la máquina de Turing. Dada una máquina T  y una cinta en blanco  C  ¿Parará T iniciando sus cómputos sobre C  en un punto en un número finito de pasos?. Esto es, dado cualquier problema ¿Sabría T de ante mano que ese problema tiene solución en un número finito de pasos, o lo que es lo  mismo, si al problema de la parada lo denominamos "P". ¿Podrá T solucionar P en un número finito de pasos? La respuesta es que el problema es indecidible.


Podemos representar una máquina de Turing de la siguiente manera:


 



Dispondríamos de una cinta en infinita dividida en casillas. Que la cinta sea infinita en su extensión nos indica que la máquina dispondrá de una memoria infinita. Esta cinta es el lugar en el que se realizan las manipulaciones de los símbolos. Necesitamos un conjunto de símbolos con los que opera la máquina. Este conjunto de símbolos debe ser finito y descrito previamente
.

 

                              M: {*, |, £, ¯...}

 

Desplazándose por la cinta disponemos de un lector que se mueve de derecha a izquierda o de izquierda a derecha. La función de este lector será la de leer el símbolo que aparezca en una casilla. Además podrá borrar, escribir o cambiar un símbolo por otro.

 





Para representar el estado en el que se encuentra una máquina en un momento dado utilizaremos el siguiente símbolo en el que indicaremos mediante una R o una L si el movimiento del lector se dirige hacia la izquierda o hacia la derecha .
Por último, utilizamos flechas para indicar el orden en la sucesión de estados en una máquina.

 

El lector se encuentra en una casilla en blanco, se desplaza a la derecha y si se encuentra una casilla en blanco dibuja un símbolo ¯ y se para

 





O de una forma más sencilla


            Cada uno de los hexágonos representa un estado computacional de la máquina, de manera que con ayuda de los símbolos y las flechas podemos dar una descripción computacional de la tarea propuesta.
            Veamos unos casos simples antes de que paséis a la emocionante tarea de programas máquinas de Turing y y a estudiar el concepto de Turing-computabilidad

 

Máquina 1: Busca una casilla en blanco y se para

M= {¯¨}

Podemos colocar el lector donde nos plazca. En realidad la colocación del lector resultará fundamentar para diseñar la estrategia para la programación de la máquina. En este caso situamos el lector en la derecha y le indicaremos que se desplace a la derecha, de manera que si se encuentra una casilla con un símbolo continúe desplazándose hacia la derecha.


 

 

 









Por último, cuando el lector, desplazándose hacia la derecha, encuentra una casilla en blanco se detiene.

 

 

  Máquina 2: La máquina se desplaza hacia la izquierda y se detiene cuando encuentra el segundo rombo

M {L,¯, *}

 

 

En el diseño de esta máquina podemos diferenciar dos estados computacionales –en realidad habría tres, pero por simplificar lo dejaremos en dos– En el primer estado computacional la máquina está en un estado de búsqueda del primer rombo. En este estado la máquina se desplazará a la izquierda siempre que se encuentre con un asterisco o con una casilla en blanco. Cuando el lector encuentra un rombo, entonces pasa a otro estado computacional que tiene como función localizar el segundo rombo. Si en este estado computacional el lector encontrara una casilla en blanco o un asterisco, entonces volverá al estado inicial de búsqueda de rombos. Si en este segundo estado computacional se encontrara el segundo rombo, entonces la máquina se pararía.

Máquina 3: La máquina se detiene ante dos rombos consecutivos


Máquina 4: La máquina se detendrá ante el patrón 2112

 

 

 

 

 

 

En esta máquina nos encontraríamos con cuatro estados computacionales. El primero está especializado en buscar un ‘2’, si encuentra una ‘casilla en blanco’ o un ‘1’ continúa hacia la derecha. El segundo estado computacional se especializa en buscar un ‘1’, si encuentra algo que no sea un ‘1’ entonces vuelve al estado inicial para comenzar la búsqueda del patrón. El tercer estado se ha especializado en buscar un ‘1’, si encuentra una ‘casilla en blanco’ o un ‘2’ habría que volver al estado inicial y comenzar la búsqueda. El cuarto estado se dedica a la búsqueda de un ‘2’ y si encuentra una ‘casilla en lanco’ o un ‘1’ entonces comenzaría el proceso de nuevo, pero si encuentra un ‘2’, habría localizado el patrón propuesto y se detendría.

Máquina 5: Máquina copiadora. La máquina copia una expresión existente en la cinta.

 

M: {L,*,A,¨,|}

 

 

 

2.2.2.  La tesis de Turing y el problema de la Turing-computabilidad

 

Tesis 1. 

 

«Todo problema que pueda resolverse algorítmicamente, puede ser resuelto por una máquina de Turing» Es decir, es Turing computable

 

Conceptos asociados a la Tesis 1

 

*      Algoritmo: conjunto de reglas que aplicadas de forma mecánica pueden resolver un problema de una clase dada. Fundamentalmente en contextos matemáticos.

*      Cálculo: Toda operación que se desarrolle mediante manipulación de símbolos en un medio de representación dado. Las operaciones simbólicas son atómicas, esto es, absolutamente simples y se realizan en un computador. La acción del computador va a depender de los símbolos que tenga el sistema y del estado interno en el que se encuentra el computador.

 

Tesis 2.

 

«Toda función computable puede ser computada por una máquina de Turing. Todo problema que puede ser resuelto por métodos algorítmicos puede ser resuelto por una máquina de Turing»

 

Conceptos asociados a la Tesis 2.

 

*      Función computable: Clases de problemas que pueden ser resueltos algorítmicamente, esto es, si al algoritmo se le dan los argumentos correspondientes, entonces computará esos valores terminando la tarea en un número finito de pasos.

 


            La tesis 2 de Turing tuvo una importancia fundamental tanto para el desarrollo de la Psicología Cognitiva como para el posterior desarrollo de la Inteligencia Artificial. Lo que se deriva de la tesis 2 es que si se pudiese ofrecer una descripción en términos de una función computable de cualquier estado mental, o lo que es lo mismo, los estados y procesos mentales podrían ser descritos en términos de una máquina de Turing . Por ejemplo, si se pudiese dar una definición computacional –algorítmica– de procesos tales como la memoria, el razonamiento, tener un sistema de creencias, o incluso, de procesos cognitivos más complejos, entonces podríamos disponer de modelos computacionales como los descritos mediante máquinas de Turing capaces de reproducirlos. Las consecuencias en el campo de la Inteligencia Artificial serían evidentes, podrían construirse agentes artificiales –sujetos en términos de Lowe– que implementasen sistemas computacionales como los descritos para que pudiesen implementar procesos cognitivos de los que llamamos superiores.

Infografía sobre el legado de Alan Turing (fuente)



 

2.3. El Funcionalismo

            El funcionalismo debe entenderse como un intento dentro de la Filosofía de la Mente por resolver los problemas relativos al reconocimiento y la clasificación de los estados mentales. El funcionalismo es una posición filosófica que se considera realista con respecto a los estados mentales, esto quiere decir que el funcionalismo está comprometido con la existencia de los estados mentales.
            Los estados mentales se clasifican en términos del papel causal que tengan dentro de un agente y no tanto por su constitución físico-química. Para el funcionalismo lo que define al estado mental es el papel causal que juega dentro de la economía cognitiva de un sujeto. Para comprender qué es un estado mental debemos prestar atención a qué es lo que se deriva o qué consecuencias tiene para un sujeto tener ese estado mental.

            Veamos cómo podemos analizar la siguiente situación:

            La princesa Leila cree que Luke Sky Walker es un chico atractivo. Para comprender qué significa estar en el estado mental, o simplemente tener la creencia de que “Luke Sky Walker es un chico atractivo”, lo que debemos analizar es el papel que juega en su sistema de creencias el tener esa creencia en concreto. Digamos que tener esa creencia, junto a otras creencias como que L.S.W. no tiene compromisos con otras princesas, o que LSW pueda estar interesado en ella, junto con el deseo de... (otro estado mental –entre otras cosas – ) le llevan a considerar a L.S.W. como alguien que es candidato a engrosar la más o menos nutrida relación de novios interestelares, y por lo tanto, a actuar en consecuencia.
            Sin embargo, esta situación cambia radicalmente cuando al conjunto de creencias de la Princesa Leila se le une una nueva e inesperada creencia: “Luke Sky Walker es hermano de la Princesa Leila”. Esta nueva creencia junto a la creencia de que una princesa no debe tener relaciones incestuosas con su hermano hacen que los deseos y la conducta de la Princesa leila cambien totalmente.

            Este sencillo caso nos permite analizar los estados mentales en virtud del papel que juegan en nuestros sistemas de creencias y cómo actúan para generar nuevas creencias o para determinar un curso de acción.
            Una premisa central de la doctrina funcionalista es que, dado que en la caracterización que se hacen de los estados mentales no intervienen las características físico-químicas de los estados, al describir el comportamiento de un sujeto, podemos establecer una distinción entre el nivel puramente físico, esto es, sus estados y procesos físicos en los que el sujeto se encuentra en un momento dado; y por otro lado, un nivel de descripción funcional o abstracto en que se reflejen los estados y procesos mentales por los que pasa en sujeto en ese momento dado y cómo esos estados intervienen en la conducta del sujeto.

Se suelen diferenciar dos tipos de funcionalismo

  • Funcionalismo de la Psicología Popular. Cuando apelamos a actitudes proposicionales para explicar o racionalizar la conducta de un agente, nos referimos a la función o a papel que juegan sus creencias, deseos e intenciones en su conducta. En el caso anterior, cada una de las creencias de la Princesa Leila debe ser analizada como actitudes proposicionales que estarán ejemplificadas en oraciones del lenguaje del pensamiento (mentalés) y que se relacionan con otras en virtud de la gramática y de la lógica interna de ese lenguaje del pensamiento.
  • Funcionalismo de Máquina de Turing. Esta modalidad de funcionalismo considera al estado computacional de una máquina como algo comparable al estado psicológico de una persona. «La clave de su propuesta es identificar los estados mentales con estados computacionales dentro del sistema, donde los estado se definen en términos de géneros de operaciones realizadas. El resultado es que no identificaremos un estado mental con un estado de una máquina particular, sino con una operación que podría realizarse en una gran variedad de máquinas» (William Bechtel (1991) Filosofía de la mente. Una panorámica para la ciencia cognitiva. Tecnos.) Una panorámica para la ciencia cognitiva) Un programa, nos dice Andy Clark, debe ser entendido como una receta para realizar un trabajo dado que puede ser definido en niveles muy abstractos. En realidad un programa será el conjunto de operaciones que son realizadas en un sistema a partir de una serie de entradas (inputs) y que dan lugar a una serie de salidas (outputs). Esta idea abstracta de un programa puede ser capturada mediante una máquina de Turing.
            En el caso antes comentado, cada uno de los estados mentales de la Princesa Leila debe ser considerado como un estado computacional, de manera que el sujeto pasa de unos estados computacionales a otros hasta determinar la conducta más adecuada.
            Una idea central del funcionalismo es que un mismo programa, un mismo software, puede ser realizado, o puede estar implementado en distintas sistemas físicos, ya que en la doctrina funcionalista la mente es al cerebro lo que el programa a la máquina; o dicho de otra manera: la mente es un programa que, en humanos, corre teniendo al cerebro como su soporte o hardware. Esta conexión entre mente y programa debe ser entendida en un sentido fuerte, en un sentido que va más allá de una mera analogía, ya que para muchos funcionalistas el cerebro humano es un ordenador biológico configurado mediante un proceso de selección natural en el transcurso de la evolución humana. La función de cerebro sería la de recoger información del entorno y procesarla de acuerdo con ciertos programas que han sido instalados, en parte, en el mismo proceso evolutivo, o bien mediante un proceso de aprendizaje.


Una muy buena entrada del blog "La máquina de von Neuman" sobre funcionalismo Deficiencias filosóficas del paradigma dominante




3. EL MONISMO MATERIALISTA

            El monismo es el intento de explicar la naturaleza humana negando el dualismo de sustancias y afirmando que sólo este una única sustancia, sea esta de naturaleza material o espiritual.
            El monismo espiritualista o inmaterialismo fue propuesto por George Berkeley (1685-1753). En su A treatise concering the Principales of Human Knowledge (1710), afirmaba que el cuerpo como tal no existe, ya que este es el resultado de una percepción de la mente.

            La posición opuesta es el materialismo que sostiene que la única realidad existente es de naturaleza material. El materialismo, en su versión más extrema, niega la existencia de los fenómenos mentales, aunque otras versiones, sin negar la existencia de los fenómenos o procesos metales, si que los hacen depender de fenómenos y procesos físicos.
            El origen en de este materialismo está en la obra de La Mettrie. En 1745 publicó Histoire naturelle de l'ame y en 1748 L'homme machine basado en los trabajos de Descartes sobre los autómatas. En esta obra defiende que la conciencia y los procesos voluntarios pueden ser explicados mediante procesos mecánicos. En esta misma línea de pensamiento, Pierre J. Georges Cabanis (1757-1808), en su obra Rapports du physique et du moral de l'homme, sostiene que es el cerebro el órgano responsable de los procesos mentales y que estos sólo pueden ser explicados a parir de las complicadas operaciones que realiza el cerebro.


3.1. La Teoría de la Identidad Mente-Cerebro

El asombroso caso de P. Gage descrito por Antonio Damasio en su libro El error de Descartes, o el caso de la “díscola adolescente” comentado en su libro En busca de Spinoza, nos coloca de lleno ante el problema que vamos a tratar en esta sección. Como hemos podido comprobar, las funciones cognitivas de P.G. comenzaron a verse alteradas después del accidente. Hasta aquí nada debe sorprender, incluso un fundamentalista del dualismo no tendría inconveniente alguno en afirmar que las funciones cognitivas -razonamiento, cálculo, lenguaje, memoria...- están ligadas, o dependen del soporte físico que proporciona el cerebro; de forma que los graves daños producidos en el cerebro de P.G., explicarían sus deficiencias cognitivas. Sin embargo, a P.G. no sólo se le "alteran" sus funciones cognitivas, también tiene alteraciones importantes en su conducta, en su forma de relacionarse con los demás y en su modo de valorar. Podíamos decir incluso que P.G. ha sufrido cambios importantes en sus convicciones morales, acerca de lo que es correcto o incorrecto, o religiosas –recuérdese la facilidad con la que empezó a blasfemar–.
            La pregunta filosóficamente interesante que podemos hacernos es la siguiente: ¿son los procesos cognitivos, -nuestra forma de representar y valorar el mundo, nuestros juicios estéticos y nuestras convicciones políticas-, son procesos exclusivamente cerebrales? O dicho de otra manera, ¿podremos explicar estos complejos procesos apelando exclusivamente a la actividad físico-química que se produce en el cerebro?
            Los defensores de la Teoría de la Identidad sostienen que los estados y procesos mentales son, en última instancia, estados y procesos cerebrales; es decir, que los eventos mentales son idénticos a los eventos físicos, de forma que no es posible que un individuo tenga un evento mental determinado sin tener activado un determinado circuito neuronal y, siempre que este circuito se active el sujeto volverá a estar en el mismo estado mental.
            Los filósofos defensores de la Teoría de la Identidad aceptan un fisicalismo de tipo reductivista y consideran que sí es posible reducir la psicología a la biología. Todos y cada uno de nuestros procesos y estados psíquicos pueden ser descritos en los términos y con las leyes que nos proporcionan las ciencias de la biología y de la física, o si se quiere, dentro del modelo explicativo que proporcionaría una «neurociencia completa» en el que idealmente podríamos disponer de un modelo matemático de los procesos físicos que subyacen a los procesos mentales.
            Los filósofos que acepta la Teoría de la Identidad son fisicalistas en la medida en que en sus compromisos ontológicos no incluyen nada más que estados y procesos cerebrales, aunque se admita que, por cuestiones de pragmatismo explicativo, podamos dar una descripción de los procesos físico-químicos cerebrales en los términos que ofrece la psicología más tradicional.

3.1.1. Identidad de casos vs. Identidad de tipos

            La identidad entre eventos mentales y físicos puede entenderse de dos formas distintas. Podemos decir que la identidad se da entre casos o ejemplares de tipos de eventos, o bien que se da entre tipos de eventos. Un caso de evento, sea mental o físico, debe entenderse como una muestra o una instancia concreta de una clase de eventos. Así, si he comprado dos veces el mismo libro, lo que estoy afirmando es que tengo, por ejemplo, dos muestras o dos ejemplares del libro. Lo que la TI de Casos sostiene es que todo caso o ejemplar que cae bajo una clase de estados eventos cae también bajo una clase de eventos físicos. En este caso, lo que se identifica son muestras de eventos mentales; por ejemplo, la muestra que tenemos de un caso concreto de dolor con una muestra de un tipo de eventos físicos.  
            Un tipo de eventos o estados representa una clase concreta de eventos de forma que al identificar tipos de eventos mentales con tipos de eventos físicos, lo que hacemos es identificar un tipo concreto de estado mental, por ejemplo, estar en un estado de ansiedad, con un tipo específico de estado cerebral, tener activados ciertos circuitos neuronales que conectan zonas del sistema nervioso como la amígdala, el córtex frontal y el sistema límbico .
            La diferencia que existe entre estos dos modos de entender la identidad entre estados mentales y estados cerebrales reside en el alcance de la identidad o del grado de identidad que se exija. Lo que afirma la TI de Casos es que el estado mental particular en el que se encuentre un organismo será idéntico a un estado cerebral particular. Lo que no exige esta versión de la identidad es que a un estado mental determinado le corresponda siempre y de forma necesaria el mismo estado cerebral. Esto implica que la TI de Casos no se pronuncia sobre la relación que se establece entre las propiedades de los eventos mentales y las propiedades de los eventos físicos que se relacionan. La TI de Tipos es más exigente puesto que afirma que cada evento mental concreto es idéntico a un evento cerebral concreto; siempre que el organismo está en un estado mental determinado, la red de neuronas que se activan formando un cierto evento cerebral ha de ser siempre la misma. Cualquier cambio en esta red neuronal implicaría un cambio en el estado mental, y el organismo pasaría entonces a estar en un estado mental distinto. 
            La TI, en cada una de estas versiones, nos compromete con una doctrina fisicalista. A cada una de estas versiones de identidad le corresponde un modo distinto de concebir los eventos y las relaciones que se dan entre ellos. De un lado, y coincidiendo con la identidad de casos, tendríamos un Fisicalismo de Casos «Token Physicalism». Lo que sostiene el Fisicalismo de Casos es que todo evento que cae bajo una clase de evento mental cae bajo una clase de evento físico (Kim (1998) Mind in a Physical world, p. 59); o lo que es lo mismo, todo aquello que ejemplifique una propiedad mental ejemplificará una propiedad física. La otra forma de fisicalismo, que se correspondería con la identidad de tipos, es el Fisicalismo de Tipos  «Type Physicalism». El Fisicalismo de Tipos afirma que un tipo de evento mental es un tipo de evento físico. Esta afirmación implica que todas las propiedades mentales son, en última instancia, propiedades físicas.
            La diferencia entre estas dos formas de fisicalismo reside en la relación que se establece entre las propiedades mentales y las propiedades físicas. El Fisicalismo de Casos es una forma de fisicalismo más débil, y en realidad, como sucede con la identidad de casos, no dice gran cosa sobre la relación que se da entre las propiedades de los eventos físicos y mentales, tan sólo que las propiedades físicas y mentales son instanciadas por una misma entidad; pero no se pronuncia sobre que tipo de relación que se da entre eventos como dolor, picor o conciencia de un lado, y eventos como la activación de redes neuronales de otro.
            El Fisicalismo de Tipos por el contrario, si se pronuncia sobre el tipo de relación que se da entre eventos físicos y mentales. Esta relación es de reducción, ya que, lo que se deriva de la afirmación de que las propiedades mentales son propiedades físicas, es la idea de que no existen las propiedades mentales. Dado el tipo de relación propuesta entre los eventos mentales y físicos, el Fisicalismo de Tipos es la forma apropiada de fisicalismo para una doctrina reduccionista.  

3.1.2. Críticas a la Teoría de la Identidad Mente/Cerebro

 En esta sección vamos a estudiar dos críticas –una de tipo lógico y otra de tipo metafísico– a la TI y también veremos cómo puede la TI enfrentarse a ellas.

 

A.] Crítica Lógica: Las leyes de Leibniz

            La primera de las críticas a la TI que vamos a estudiar se basa en las propiedades lógicas que debe cumplir toda teoría de la identidad. Desde un punto de vista lógico la identidad estricta se rige por la ley de Indiscernibilidad de los Idénticos y la ley de Identidad de los Indiscernibles. La primera ley establece que si x e y son idénticos, entonces tienen todas sus propiedades en común, es decir, dada una propiedad P, si x la tiene, entonces también la tendrá y, y viceversa. Esta ley se corresponde con el siguiente esquema de formulación:

"x"y [ (x = y) ® ( Px « Py )

 

            La ley de Identidad de los Indiscernibles, también conocida como Ley de Leibniz, nos dice que si x e y tienen todas sus propiedades en común, entonces son idénticos. La fórmula que se corresponde con esta ley sería como sigue:

"x"y [ " P ( Px « Py) ® (x = y)]

            

            Veamos cómo funcionan estas leyes. Lo que estas leyes nos dicen es que si dos objetos, sujetos o procesos tienen las mismas propiedades, entonces deben ser idénticos; o bien, que todos los objetos, sujetos y procesos que sean idénticos deben compartir sus propiedades. Por ejemplo: si Peter Parker (y sólo Peter Parker) tiene la propiedad de tener un sentido arácnido; y si Spiderman (y sólo Spiderman) tiene la propiedad de poseer un sentido arácnido, lo que nos dice la ley de identidad es que Peter Parker es idéntico a Spiderman, o simplemente que Peter Parker y Spíderman son la misma persona.

            Lo se derivaría de aplicar la Ley de Leibniz sobre el ejemplo anterior es que si Spiderman y Peter Parker son la misma persona, entonces deben poseer las mismas propiedades, y por lo tanto, la propiedad de disponer de un sentido arácnido debe ser compartida por ambos.

            La crítica que se elabora contra la TI de estados mentales y físicos a partir de las leyes que rigen la identidad es que podemos encontrar propiedades que poseen los estados mentales y que no poseen los estados físicos. Para los críticos de la TI de los estados físicos y mentales tener una creencia es estar en un estado mental que tiene unas propiedades que no poseen los estados físico-cerebrales. Así, una creencia tiene propiedades como tener un contenido, es decir, tratar sobre algo, o tener un valor de verdad, ser verdadera o falsa, mientras que no tendría mucho sentido aplicar estas propiedades a los estados cerebrales y decir que la activación de una red neuronal sea verdadera o falsa o que tenga un contenido. En definitiva, si los estados cerebrales fuesen idénticos a los estados mentales, por aplicación de las leyes de identidad, tendrían que compartir sus propiedades, pero podemos ver que existen propiedades de los estados mentales que no poseen los estados cerebrales, luego no pueden ser idénticos.

            Una forma de defender la TI de los estados físicos y mentales es negar que las leyes de Leibniz se puedan aplicar en contexto de creencias o en contextos donde aparezcan actitudes proposicionales, porque cuando se aplican las leyes de identidad en estos contextos surgen problemas. Veamos unos ejemplos adaptados de Churchland, P.S.(1986). Neurophilosophy. Toward a Unified Science of the Mind/Brain. MIT Press. y Churchland, P.M.(1993). A Neurocomputational Perspective. The Nature of Mind and the Structure of Science. MIT Press.

  1. Hitler es reconocido por todos como un asesino de masas
  2. Adolf Schicklgruber no es reconocido por todos como un asesino de masas
  3. Hitler no es Adolf Schicklgruber.

            La falacia de este tipo de razonamiento surge cuando aplicamos las leyes de identidad en contextos en los que su usan términos como “creer que”, “tener la intención de”, o, como es el caso, “ser reconocido por”, porque creer que o ser reconocido por no es una propiedad de un objeto o como en el caso que nos ocupa de Hitler o de Adolf Schicklgruber, sino de quien afirma esos enunciados. Veamos otro caso:

  1. Juan de Dios cree que la aspirina quita el dolor de cabeza
  2. Juan de Dios no cree que el ácido acetilsalicílico quite el dolor de cabeza
  3. La aspirina no es  ácido acetilsalicílico

            En este caso, creer que la aspirina tenga la propiedad de quitar el dolor de cabeza no es una propiedad de la aspirina, sino de la persona que tenga esa creencia, en este caso de Juan de Dios. Por lo tanto negar la identidad entre la aspirina y el ácido acetilsalicílico sobre lo afirmado en 1 y 2 no es aceptable dado que “creer que...” no es una propiedad ni de la aspirina de del ácido acetilsalicílico.
            La defensa de la TI de los estados físicos y mentales se construye negando la posibilidad de aplicar las leyes que rigen la identidad a los contextos en las que se ven involucrados estados de actitud proposicional.

 

B].Crítica metafísica: Principio de Materialización Múltiple


            El argumento se basa en la idea de que los estados mentales no pueden ser idénticos a los estados físicos porque los estados mentales no son materializados por estados físicos concretos y perfectamente delimitados, sino que un mismo estado mental puede ser materializado en una amplia variedad de estados físicos. Lo que sostiene la teoría de la identidad de los estados mentales y físicos es que un tipo concreto de estado mental, por ejemplo el dolor, debe corresponderse con un tipo concreto de estado físico, por ejemplo la activación de una determinada red de neuronas. Esta posibilidad es la que precisamente niega el PMM ya que lo que afirma es que no se puede dar esa correlación entre los tipos de estados mentales y los tipos de estados cerebrales porque un mismo tipo de estado mental puede ser materializado por múltiples estados cerebrales.
            Según nos cuenta Jerry Fodor, su gato, Greycat, es un gato que tiene estados mentales, en concreto tiene creencias sobre el mundo y en base a estas creencias Fodor consigue explicar la conducta de Greycat. Así, si Greycat se dirige al cuenco de la comida, Fodor nos dice que Greycat cree que en su cuenco hay comida. De ser cierto esto, Fodor y su gato pueden compartir una misma creencia y por lo tanto estar en el mismo estado mental. Esto ocurrirá cuando ambos crean que hay comida en el cuenco de la comida de Greycat. Lo que parecería derivarse de la TI entre estados físicos y estados mentales es que a la creencia “hay comida en el cuenco” le debe corresponder un mismo estado cerebral; y lo que nos dice el PMM es que difícilmente el estado cerebral de Greycat va a ser idéntico al estado cerebral de Fodor. De esta forma podemos ver cómo una misma creencia –“hay comida en el cuenco”– puede ser materializada en distintos estados físicos: los estados cerebrales de Greycat y los estados cerebrales de Fodor.

            D. Lewis – «Mad Pain and Martian Pain» (1983) – nos propone un ejemplo similar. Pensemos que existen seres extraterrestres que han conseguido establecer contacto con nosotros y cuya composición básica no es el carbono sino el silicio. Estos seres carecen de neuronas en el mismo sentido en el que decimos que nosotros tenemos neuronas, ya que las suyas son de silicio mientras que las nuestras son de carbono. Nosotros podemos compartir ciertas creencias con estos seres; por ejemplo, podemos compartir la creencia de que 2+2=4. Lo que os diría el PMM es que parece del todo evidente que aunque la creencia es la misma, los estados físicos en los que se materializa la creencia no pueden ser los mismos, ya que unos estados físicos son de carbono mientras que los otros estados físicos son de silicio. Este sería un ejemplo muy claro de cómo una misma creencia podría materializarse en múltiples estados físicos.
            Si el PMM se cumple, entonces la TI entre estados mentales y estados cerebrales no puede ser cierta porque no habría una correlación uno-a-uno entre estados mentales y estados cerebrales.
            Para defender la TI hay que negar la posibilidad misma del PMM. El PMM sostiene que dos sujetos  pueden estar en un mismo estado mental y que, sin embargo, sus estados cerebrales son distintos. Lo que los defensores de la TI cuestionan es la primera parte del PMM, esto es, niegan la posibilidad de que dos sujetos puedan estar en un mismo estado mental. No tenemos ningún criterio para determinar si esto es posible o no. No tiene sentido postular que dos personas se encuentran en un mismo e idéntico estado mental. Los estados mentales, por definición, son únicos y privados así que no podríamos determinar cuándo dos personas comparten un mismo estado mental.
            Por otro lado, en el supuesto de que queramos articular el PMM sobre la idea de que podemos compartir estados mentales con seres distintos a nosotros, sean estos gatos, seres de silicio o el mismísimo Nexus VI, lo que el defensor de la TI nos diría es que debemos acotar los sujetos sobre los que vamos a establecer una identidad entre sus estados mentales y sus estados cerebrales, y desarrollar una Teoría de la Identidad para seres humanos, otras especies de animales o para seres de silicio.

 

"¿Puede un zombi romper una puerta con un ladrillo?". (Zombis y el Principio de Materialización Múltiple) 






3.2. La Teoría Neurocomputacional de la Mente

 Los avances que se producen en el campo de las neurociencias, la posibilidad del estudio de los procesos cerebrales y el desarrollo de modelos de la mente desligados de los modelos de computación clásicos van a permitir el desarrollo de una Teoría Neurocomputacional de la Mente. La TNM está ligada al abandono de un principio que se consideraba básico en la Ciencia Cognitiva Clásica: los estados mentales son estados computacionales y la computación consiste en la manipulación de símbolos. La adopción de este principio permitió el desarrollo de la “metáfora del ordenador” y la idea de que los procesos cognitivos son procesos computacionales en el sentido en el que hablamos de computación cuando nos referimos a lo que realiza un ordenador convencional.

            La crisis de los sistemas clásicos de computación y de la Ciencia Cognitiva Clásica asociada a ellos tuvo como consecuencia inmediata la necesidad de desarrollar nuevos sistemas computacionales. Estos sistemas computacionales serán los sistemas conexionistas. Los sistemas conexionistas están inspirados en los diseños y estructuras que conforman el cerebro, ahora la imagen se ha invertido, es el cerebro quien proporciona el modelo adecuado para comprender el funcionamiento de los sistemas computacionales. La diferencia entre un sistema de computación clásico y un sistema conexionista es que este último no requiere de la manipulación de símbolos. La diferencia fundamental entre los modelos simbólicos y los modelos conexionistas es que mientras que los primeros recurren a las propiedades formales de un sistema simbólico para simular los sistemas cognitivos, los segundos se basan en diseños que tratan de copiar la estructura del cerebro (sistemas de diseño cerebriforme). Los modelos o diseños de estructuras conexionistas son muy variados. En realidad para cada problema podría plantearse el diseño de un modelo distinto, es por ello que en esta sección lo que se pretende explicar aquellos elementos comunes a la mayoría de los sistemas conexionistas y como los modelos conexionistas han influido en la imagen computacional de la mente.

            Paul y Patricia Churchland (Churchland, P.M. y Churchland, P.S. (1990 "Podría pensar una máquina". Investigación y Ciencia. ) destacan tres características que definen a los sistemas nerviosos: 

  • En primer lugar, los sistemas nerviosos son máquinas en paralelo. Un Procesamiento Distribuido en Paralelo (PDP) se caracteriza porque en él existen procesadores conectados entre sí y especializados en realizar tareas específicas. 
  • La segunda característica es que la unidad fundamental de procesamiento es la neurona. Este aspecto es fundamental puesto que las unidades que forman el sistema son estructuras muy sencillas que tienen un comportamiento también muy simple. Las neuronas son unidades que responden a impulsos eléctricos, impulsos que pueden inhibir, excitar o modular el comportamiento de la neurona. 
  • Por último, las redes de neuronas forman sistemas recurrentes. Las conexiones que podemos encontrar en las neuronas son de dos tipos, de un lado, tenemos conexiones formadas por axones que parten de las neuronas para sinaptar con otras; y de otro, existen axones que vuelven desde la población de neuronas destinataria a la población de neuronas de origen. Estas proyecciones recurrentes modulan el procesamiento y, además, permiten al cerebro ser un sistema dinámico con una conducta que llega a ser, en algunos casos, independiente de los estímulos externos.

            Un sistema conexionista es, por lo tanto, una red de procesadores con un diseño tipo PDP, cuyos elementos básicos lo forman unidades simples, similares a neuronas que reciben el nombre de nodos de la red. Cada nodo está conectado con otros nodos formando una red a través de la cual se envían señales unos a otros y a sí mismos. El valor de activación de cada nodo depende de las entradas excitantes o inhibitorias procedentes de la red a la que esté conectado. Los valores de activación pueden ser del tipo 0 o 1, donde 0 indica que la unidad está desactivada y 1 indica que la unidad está activada. Al valor de activación se le suele denominar ‘fuerza’. La entrada total que recibe un nodo determinará su estado de activación, y esto puede depender del umbral que la entrada tenga que alcanzar para poder activar al nodo al que se conecta. La activación de un nodo viene representada por una relación que es directamente proporcional a la fuerza de la entrada que recibe. La fuerza de conexión entre dos nodos se denomina peso.

            Veamos cómo es el proceso analizando el comportamiento de una neurona muy simple. Esta neurona tiene una fuerza o un umbral de disparo de 4. Esto quiere decir que cuando la neurona reciba un peso con valor 4 la neurona se activará. Supongamos que la neurona tiene tres conexiones de entrada: la conexión A que tiene una fuerza con valor 1; la conexión B que tiene una fuerza con valor 2; y la conexión C que tiene una fuerza con valor 3. Cuando la neurona reciba señales de entrada procedentes de las conexiones A y C o de las conexiones B y C, el peso de la conexión será de 4 o más de 4 lo que hará que la neurona se active. Estos tipos de diseños pueden incluir modelos de conexión que sean inhibitorias, esto es, que impidan la activación de una neurona. Así, si suponemos ahora que la conexión B tiene una fuerza inhibitoria de valor 2 cuando la neurona reciba las entradas de las tres conexiones no se activará, ya que el peso de las tres conexiones (1-2+3) no supera el umbral de activación.
            Las redes neuronales pueden formar tres tipos de capas en función de las conexiones que establezcan. En primer lugar, tendríamos las unidades de entrada, que tienen conexiones fuera del sistema y reciben estímulos tanto del exterior como de otras unidades internas. Las unidades de salida también tienen conexiones con el exterior. De hecho, son las encargadas de enviar información al exterior. Y, por último, existen unidades ocultas, que carecen de conexiones fuera del sistema pero permiten establecer conexiones sinápticas entre distintos niveles del sistema. Un sistema de red neuronal podría tener este diseño:
 

    

Para los modelos conexionistas los estados y procesos mentales pueden ser explicados a partir de los sistemas computacionales basados en redes neuronales. No se trata ya de manipulación de símbolos como propone el modelo cognitivo más tradicional o la teoría computacional de la mente, sino de redes compuestas de nodos que se activan para formar representaciones. Las representaciones se realizan dentro del sistema y dependen de las propiedades o de la arquitectura del sistema. No están localizadas en un lugar del sistema, sino que se distribuyen en el sistema.
            La TNM sostiene que una red neuronal genera un mapa topográfico de n dimensiones en el que se produce una representación de una porción de realidad. Cada representación que tenemos del mundo se corresponde con un estado computacional dentro de ese espacio n-dimensional y ocupa un lugar en él. Por ejemplo, la representación que tenemos de una cara ocupará un lugar en el espacio de estados.

En este caso podemos imaginar un estado de tres dimensiones en el que se tienen tres representaciones de la cara de Ludwig Wittgenstein. Cada una de estas representaciones se correspondería con un vector que trazaría una trayectoria dentro del espacio de estados. La activación de una red neuronal se correspondería con la representación de la cara de Wittgenstein, y esa representación ocupará un lugar en el espacio de representaciones. La representación que se correspondería con el retrato en la medida en que difiere de la representación de la fotografía, ocupará un lugar más alejado de ésta en el espacio. Por último, la caricatura, al ser una representación que se diferencia más del original, ocupará una posición más alejada de la fotografía en el espacio de estados. Esta sería la manera en la que podemos formar representaciones no sólo de tipo sensorial, pues también habría espacios para representaciones morales, estéticas...

            Hay dos grandes modelos de sistemas conexionistas.

            Modelos localistas. En estos modelos cada nodo representa una entidad, una propiedad o un concepto simple. La conexión entre distintos nodos formará una red que se corresponderá con la representación de entidades o de conceptos más complejos. Cada nodo puede tener un nivel de activación determinado que transmite a los nodos con los que está conectado. Estos nodos suman el conjunto de la actividad recibida y lo proyectan hacia otros nodos.

            Modelos subsimbólicos. En estos modelos, los nodos no representan nada por sí mismos, es el vector de activación que conecta los distintos nodos lo que funciona como una representación. Una representación es un patrón de activación.

            En la actualidad hay un debate muy extendido en la Filosofía de la Mente y en la Filosofía de la Inteligencia Artificial sobre si realmente hay alguna diferencia significativa entre los modelos computacionales simbólicos y los modelos conexionistas de la mente.Para Fodor, el conexionismo debe entenderse como una manera distinta de implementar los procesos computacionales que definen lo que son los procesos mentales.

En la entrada "El cerebro robusto (o por qué no morimos con el daño cerebral)" (Blog Neuronas y centellas),se explica como los trabajos realizados por NiKola Tesla para buscar la forma más eficiente de interconectar viviendas y una central productora de energía eléctrica, generan un patrón de conexión muy parecido a los modelos conexionistas y a los sistemas de conexión neuronal que encontramos en el cerebro.

El debate sobre si estos son modelos reflejan adecuadamente la arquitectura cognitiva se verá en el apartado sobre dinamicismo.



3.3. El Materialismo Eliminativo   

     La TNM es así una teoría materialista puesto que su ontología sólo se compromete con la existencia de objetos y eventos materiales (eventos neuronales), y también es una teoría eliminativista, ya que, de ser cierta, la consecuencia inmediata es la eliminación de cualquier otro tipo de objetos o de eventos no materiales que sirvan como vehículo para explicar los procesos mediante los cuales nos representamos al mundo y a nosotros mismos. El materialismo eliminativo lo define Paul Churchland como: «La tesis de que nuestra concepción de sentido común acerca de los fenómenos psicológicos constituye una teoría radicalmente falsa, una teoría tan esencialmente defectuosa que tanto los principios como la ontología de esa teoría serán eventualmente desplazados, más que reducidos con fluidez, por una neurociencia completa» (Churchland, P.M. 1995, «El materialismo eliminativo y las actitudes proposicionales» p. 43).

            Lo que tal reducción conlleva es la sustitución de la descripción tradicional realizada por la Psicología Popular (PP) de los eventos mentales por una descripción de acuerdo con los resultados obtenidos por las neurociencias, y esto implica no sólo la eliminación del lenguaje tradicional de la PP y su sustitución por el lenguaje propio de las neurociencias, sino que también conlleva, fundamentalmente, una reducción ontológica en la cual desaparecen los objetos y eventos que caracterizan al marco tradicional de la Psicología.
            Cuando lo que se afirma es que se pretende dar una descripción de los procesos mentales en términos de eventos o procesos neuronales lo que se quiere decir es que, de la misma manera que ver algo rojo podría ser descrito como la activación de una determinada red de neuronas en el córtex visual, cualquier evento mental no sería más que la activación de un complejo sistema de redes neuronales. Cada creencia, cada evento mental, constituiría un complejo mapa neuronal, de forma que nuestra particular visión del mundo, con nuestras creencias, emociones, principios morales, etc. se correspondería con un determinado diseño del conjunto de nuestros mapas neuronales. Cualquier cambio en mi sistema de creencias no sería más que una nueva configuración, un reajuste, del mapa o del diseño de la red neuronal.
            Por otro lado, la reducción propuesta por el materialismo eliminativo exige un cambio en el vocabulario con el que tradicionalmente hemos descrito todos aquellos procesos que tienen que ver con las representaciones que hacemos del mundo. El lenguaje con el que nos referimos a los procesos internos de sujeto ya no puede estar compuesto de expresiones tales como ‘creencia’, ‘deseo’, ‘miedo’ o ‘inclinación’, términos propios del lenguaje de la Psicología Popular, sino que ahora las explicaciones que se den sobre los procesos cognitivos deben de realizarse con y desde el lenguaje propio de lo que sería una neurociencia completa.
            Si la teoría alternativa, la TNM, se presenta como una teoría apropiada, entonces la PP se convierte en una teoría superflua. Una vez que disponemos del nivel de descripción apropiado, el nivel que proporcionaría una neurociencia completa, ya no sería necesario un segundo nivel de descripción donde se recojan los estados mentales. La historia de la ciencia muestra con cuanta frecuencia se producen cambios conceptuales como consecuencia de la eliminación de una teoría por otra. Patricia Churchland (1986, p. 280) vería un proceso similar en la eliminación de la teoría del calórico por la teoría cinética o en el desplazamiento del flogisto por el oxígeno en la química. En estos casos lo que se produce no es la identificación del calórico con la energía cinética molecular o del oxígeno con el flogisto, sino que nos encontramos ante casos de simplificación ontológica al eliminar entidades como el calórico o el flogisto. Si el proceso de co-evolución entre dos teorías muestra que una, la teoría con menos potencia explicativa, ha quedado obsoleta o simplemente se prueba que es falsa, no se buscan vínculos entre las dos teorías que permitan hablar de ámbitos de descripción particulares o de marcos teóricos distintos, simplemente se pasa a eliminarla del conjunto de teorías científicas.

Entrevista a Patricia Churchland


Entrevista subtitulada a Patricia Churchland. Para ver los subtítulos hay que pinchar en el botón de "Transcripción interactiva"














Textos sobre Neurofilosofía (Blog de Neurofilosofía)


  • Yo, mi Smartphone, y yo mismo (sobre la noción de identidad personal y la responsabilidad moral y penal. ¿Es Bruce Banner responsable de los desmanes de Hulk?)
  • El amor, un desorden obsesivo compulsivo (explicación neurofisiológica del transtorno obsesivo compulsivo llamado amor)
  • Idiots, stupids and criminal students (La conducta de los adolescentes)


3.4. Teoría Dinamicista de la Mente


            Un problema al que se enfrentan tanto a los sistemas computacionales clásicos como los conexionistas está relacionado con la imagen cartesiana que se deriva su concepción de la dinámica de los procesos cognitivos. En ambos casos, los procesos cognitivos de los que dan cuenta los modelos computacionales clásicos y las arquitecturas conexionistas se limitan al flujo de información dentro de un sistema aislado de su entorno. En la teoría computacional clásica los procesos se estudian como transiciones de estados computacionales que vienen descritos por los algoritmos que componen el programa con el que opera el sistema; y en los sistemas conexionistas pasa algo parecido, pues aunque se contempla la posibilidad de que se formen bucles desde la capa de salida hacia la capa de entrada y de que el sistema pueda reconfigurar los pesos de los nodos en función de la información que pueda recibir desde las capas de salida, todo este proceso se realiza de una manera en la que el sistema está desligado del medio. Comprender los procesos cognitivos requiere comprender no tanto los mecanismos mediante los cuales un sistema procesa información, sino cómo un sistema interacciona con el entorno formando un sistema más complejo en el que agente y mundo son elementos de un mismo sistema.

            Los modelos cognitivos basados en arquitecturas dinamicistas interpretan la cognición como un proceso emergente y autoorganizado en el que se deben integrar tanto los factores relacionados con la actividad neuronal como los cambios producidos en el organismo y el medio en el que se encuentra el sujeto. El modelo resultante es por lo tanto un modelo extendido que concibe tanto al sujeto y al medio como elementos que configuran un mismo sistema en el que cobra una especial importancia la dimensión temporal. Al introducir el tiempo como un elemento más dentro de ese sistema global en el que están implicados agentes y entorno, se obtiene una visión más compleja de los procesos cognitivos al ser considerados estos como la resultante de la evolución a través del tiempo de la interacción entre agentes y el entorno.

            Dentro de la Teoría de Sistemas Dinámicos se suele distinguir entre sistemas dinámicos concretos y sistemas dinámicos abstractos. La Teoría de Sistemas Dinámicos Concretos tiene como objeto el estudio de objetos reales situados en un mundo físico y los cambios que se producen en ellos a lo largo del tiempo. Los Sistemas Dinámicos Abstractos son modelos matemáticos que describen formalmente los cambios que se producen en entidades concretas.

            Las herramientas matemáticas que permiten describir el comportamiento de un sistema están integradas por un conjunto de ecuaciones diferenciales no lineales, que especifican los valores que va tomando un subconjunto de variables control que determinan los distintos estados hacia los que evoluciona un sistema en el tiempo. De forma genérica, se puede decir que la Teoría de Sistemas Dinámicos intenta modelar y explicar el comportamiento de sistemas concretos, identificando cuáles son las variables relacionadas con la conducta del sistema que van cambiando en el tiempo y que, de forma interactiva, describen las leyes que regulan el comportamiento del sistema.

           Mediante el tipo de herramientas conceptuales propios de la Teoría de Sistemas Dinámicos y la utilización de complejos sistemas de ecuaciones diferenciales, la Teoría de Sistemas Dinámicos tiene como objetivo la descripción los procesos cognitivos de nivel superior, considerados estos como sistemas que evolucionan en el tiempo.

           El ejemplo clásico de sistemas acoplados al entorno y capaces de autorregular su conducta lo encontramos en el gobernador centrífugo de Watt.





            En las máquinas de vapor el movimiento del pistón está vinculado al movimiento giratorio del motor que es el responsable del movimiento de la máquina. En estos tipos de máquinas, la velocidad del motor depende de variables como pueden ser las fluctuaciones de vapor, la temperatura del horno, la carga y otros factores de forma que no es posible mantener una velocidad constante. Para alcanzar esta velocidad constante es necesario un dispositivo que ajuste la válvula que controla la cantidad de vapor que llega al pistón. La solución propuesta por Watt consistía en insertar un eje vertical al motor al que van sujetos dos brazos que tienen acopladas dos bolas metálicas en sus extremos. El dispositivo funciona de manera que, al girar el eje, la fuerza centrífuga permite que las bolas metálicas suban y se desplacen hacia fuera. En el extremo superior del eje hay una válvula que permite ajustar el flujo de vapor. De este modo, cuando aumenta la velocidad del motor, los brazos suben cerrando la válvula, y cuando disminuye la velocidad del motor los brazos se cierran, abriendo así la válvula y permitiendo que aumente el flujo de vapor. El dispositivo resulta ser un sistema ingenioso que permite vincular la velocidad de rotación del eje con la velocidad del motor y de este modo conseguir una velocidad constante.

            El gobernador centrífugo es un ejemplo de sistema dinámico cuya conducta puede ser descrita mediante una ecuación diferencial no lineal de segundo orden. El gobernador centrífugo constituye pues un sistema que interactúa con el entorno y cuya conducta emerge a partir del control de una serie de variables que cambian interdependientemente en el tiempo, generando de este modo un único sistema que engloba tanto al dispositivo en sí como al medio en el que está acoplado. El comportamiento del sistema en su totalidad puede ser explicado mediante los modelos que proporciona la TSD.

            Según van Gelder, la concepción dinamicista de los procesos cognitivos se construye sobre dos afirmaciones básicas. Una de carácter ontológico (dynamical hypothesis) sostiene que los agentes cognitivos son sistemas dinámicos y la naturaleza última de la cognición es de carácter dinámico. La otra, de naturaleza epistemológica, (knowledge hypothesis) afirma que los agentes cognitivos, y la cognición misma, pueden ser comprendidos a partir de las herramientas y los modelos generados por la TSD.

            Es complejo determinar qué es un agente cognitivo, en principio cualquier agente que muestre una conducta cognitiva que implique conocimiento puede ser considerado como un agente cognitivo, esto permitiría incluir como tales a las personas, algunas especies animales con un cierto nivel de desarrollo evolutivo e incluso a agentes artificiales como computadoras. Un agente cognitivo en principio es todo aquello que implementa sistemas dinámicos, por lo tanto, la cognición puede ser explicada mediante los elementos que proporciona la TSD
 "Spaun, un cerebro virtual que genera representaciones" se analiza el funcionamiento de un sistema de representación artificial que actúa siguiendo los parámetros de la TSD (Semantic Pointer Architecture Unified Network)



 
Ċ
Lowe.pdf
(106k)
Jose Luis Fernández Moreno,
13 de feb. de 2009 4:51
Ċ
Jose Luis Fernández Moreno,
21 de ene. de 2013 1:35
ĉ
Jose Luis Fernández Moreno,
19 de feb. de 2009 0:59
Comments