¿Podría pensar una máquina? La respuesta es, obviamente, sí. Nosotros somos precisamente esas máquinas. John Searle: Minds, Brains and Programs
1. Origen de la crítica de Searle al funcionalismo
El intento funcionalista de explicar la mente con conceptos de la A.I. ha sido criticado por John Searle en su artículo Minds, Brains and Programs, 1980. Searle diferencia entre:
A. I. débil. Defiende que el computador es una herramienta útil para el estudio de la mente, porque permite formular y comprobar hipótesis de un modo más riguroso.
A. I. fuerte. El computador adecuadamente programado es realmente una mente. Por lo tanto comprende y tiene estados cognitivos.
Searle solamente argumenta contra la versión fuerte. Combate la opinión de que si a un ordenador se le proporciona una narración determinada y se le hacen preguntas que contestará de la misma forma en que lo haría una persona, hay que concluir que el ordenador literalmente comprende la narración. Para ello eligen las siguientes narraciones alternativas:
Una persona pide una hamburguesa en un restaurante. La hamburguesa que le traen está completamente quemada. Caso 1: El cliente se marcha enfadado, sin pagar ni dejar propina. Caso 2: El cliente estuvo muy complacido con la hamburguesa y dejo una espléndida propina después de pagar la cuenta. ¿Se comió, en cada caso, el cliente la hamburguesa?
Algunos programas como el de Schank responden como lo haría un humano. ¿Debemos afirmar que el ordenador está comprendiendo la narración y las respuestas a las preguntas? Si se añaden unas reglas de instanciación generales del tipo "todo cliente que esté complacido con la comida que le han servido y que deje una buena mina se la habrá comido", el caso se resuelve con una simple regla de aplicación del principio general al caso individual.
¿Es nuestra comprensión diferente de la mera aplicación de la regla de instanciación universal a los principios generales citados? Si lo es, habrá que explicar en qué consiste la diferencia. Si no lo es, habrá que reconocer la realidad de la A. I. fuerte. Así, el problema se reduce a preguntarnos si nuestro comprender es algo más que responder adecuadamente a las preguntas.
2. La habitación china. (Minds, Brains and Programs, 1980)
El propósito de este caso hipotético es mostrar que el tratamiento de la información por parte de un ordenador hace abstracción del significado, carece de rasgos semánticos, y se reduce a emparejar elementos sin tener en cuenta la relación entre estos y la realidad.
(Descripción de la habitación china...)
Lo más importante de la situación es que Searle, en su habitación, se está comunicando en chino con el exterior sin entender el idioma, de forma completamente desprovista de semántica. Sólo sigue ciegamente unas instrucciones o programa que le indican cómo relacionar unos garabatos con otros.
Supone asimismo que tanto él en la habitación como los programadores en el exterior irán modificando y perfeccionando tanto el programa como una respuestas. La tesis de Searle es que su comportamiento dentro de la habitación es como el de un computador, porque se limita a realizar operaciones computacionales sobre elementos formalmente especificados.
Searle atribuye a los defensores de la A. I. fuerte la tesis de que el ordenador comprende la historia, y de que su programa en algún sentido explica la comprensión humana. Contra esta tesis Searle alega:
1. Él, dentro de la habitación china, no entendía en absoluto la historia. Por lo mismo hay que pensar que un ordenador con un programa como el de Schank tampoco lo entiende.
2. Puesto que no hay comprensión en el ordenador cuando funciona con su programa, tal programa no puede explicar la comprensión humana.
Varios comentarios hay que realizar sobre el trabajo de Searle:
1. Searle atribuye a los defensores de la A. I. fuerte la tesis de que lo que uno hace al comprender una historia es lo mismo que hace Searle en su habitación cuando manipula garabatos chinos; es decir, que comprender una narración consiste meramente en unir inscripciones sin interpretarlas, unir signos sin entender su significado. Ni está claro que la atribución sea correcta, ni esa tesis ha sido probada.
2. El concepto de comprensión de Searle parecen apoyarse en las intuiciones de un hablante nativo: comprensión es lo que atribuimos a alguien cuando entiende una historia en su lengua nativa.
3. En el resto del artículo Searle hace afirmaciones como la siguiente: El estudio de la mente comienza con hechos tales como que los humanos tienen creencias, mientras que los termostatos, los teléfonos y las máquinas calculadoras no las tienen (En referencia a la pretensión de McCarthy de que máquinas como los termostatos tendrían creencias). Debe notarse que en su afirmación presenta como hechos lo que habría que probar.
4. Searle admite que si pudiéramos construir un robot cuyo comportamiento fuera indistinguible del comportamiento humano, le atribuiríamos intencionalidad, mientras no tuviéramos razones en contra. Sin embargo, considera que esto, que se propone como crítica a la objeción de Searle a la A.I. Fuerte, no constituye realmente apoyo alguno a la misma.
3. Las hipótesis de Newel- Simon (Computer Science as Empirical Enquiry: Symbols and Search, 1976)
La primera hipótesis de Newel- Simon
Searle recuerda al respecto del punto 4 la tesis de Newel-Simon, según la cual la actividad mental consiste en operar con un sistema de símbolos físicos.
La hipótesis de los sistemas de símbolos físicos (Primera hipótesis de Newel-Simon) de dichos autores reza así:
un sistema de símbolos físicos (SSF) tiene los medios necesarios y suficientes para la acción inteligente general
Esta hipótesis se lanza como una hipótesis científica y los autores suponen pruebas empíricas en su apoyo y la posibilidad de ser falsada. Entender correctamente este enunciado pasa por definir cuidadosamente los conceptos implicados:
Acción inteligente general: los autores entienden el tipo de inteligencia que se puede apreciar en la acción humana, a saber, conducta apropiada a los fines y adaptada a las exigencias del medio.
Sistema de símbolos físicos (SSF) es un conjunto de entidades llamadas símbolos, que son patrones físicos que pueden funcionar como componentes de otro tipo de entidad llamada expresión (o estructura de símbolos). Una estructura de símbolos está formada por un número de instancias (señales o tokens) de símbolos relacionados de alguna forma física. En algún instante el sistema contendrá una colección de esas estructuras de símbolos. El sistema contiene también una colección de procesos que operan sobre expresiones para producir otras expresiones: procesos de creación, modificación, reproducción y destrucción. Un SSF es una máquina que produce a lo largo del tiempo una colección evolutiva de estructuras de símbolos. Este sistema existe en un mundo de objetos tan extenso como sus propias expresiones simbólicas.
Las evidencias que apoyan la hipótesis del sistema de símbolos físicos no han venido solo de áreas como juegos sino de otras áreas como la percepción visual donde es más atractivo esperar la influencia de procesos subsimbólicos. Sin embargo procesos subsimbólicos como las redes neuronales están cuestionando los simbólicos como tareas de bajo nivel. Quizá entonces los SSF solo sean capaces de modelar algunos aspectos de la inteligencia humana y no otros.
La importancia de la hipótesis de SSF es doble. Es una teoría significativa de la naturaleza de la inteligencia humana y también es de gran interés para los psicólogos.
Dado el doble aspecto de necesidad y suficiencia en el enunciado, los autores recogen pruebas o evidencia en favor de ambas:
1. Respecto a la suficiencia: aducen la existencia de sistemas inteligentes, que van desde los programas de juegos incluyendo el ajedrez hasta los programas de comprensión del lenguaje natural.
2. Respecto a la necesidad: aducen que la conducta simbólica del ser humano aparece porque este posee las características de un SSF.
Aducen además Newel y Simon la prueba negativa de que no existen hipótesis alternativas que intenten explicar la presencia de inteligencia tanto en máquinas como personas. Para ello rechazan las hipótesis de la psicología conductista o de la teoría de la Gestalt, de una forma quizás poco precisa. La conexión de todo esto con la metáfora de Searle estriba en que los conceptos de Newell y Simón llevan a la semántica a través de dos conceptos adicionales: designación e interpretación, como veremos a continuación.
En cierta sintonía con Searle (esta pregunta es básica en Searle: ¿cómo puede haber inteligencia sin semántica?), estos dos autores dan cabida en su teoría a dos conceptos claramente semánticos: designación e interpretación.
Designación: Una expresión designa un objeto sí, dada la expresión, el sistema puede o bien afectar al objeto mismo o bien comportarse de algún modo que dependa del objeto.
Interpretación: El sistema puede interpretar una expresión si la expresión designa un proceso y si, dada la expresión, el sistema puede llevar a cabo el proceso.
Segun Margaret Boden ambos conceptos forman una semántica mínima que podríamos llamar semántica causal. En esta semántica el significado de un símbolo es el conjunto de cambios que el símbolo permite al sistema efectuar o bien en un estado interno o bien en un estado externo o bien entre respuesta al mismo.
La Segunda hipótesis de Newel-Simon
Se denomina también la Hipótesis de la Búsqueda Heurística, atiende a la característica de la inteligencia consistente en resolver problemas, y su anunciado es el siguiente:
Las soluciones a problemas se representan como estructuras de símbolos. Un SSF ejercita su inteligencia en la resolución de problemas por la búsqueda, esto es, generando y progresivamente modificando estructuras de símbolos hasta que produce una estructura de solución.
En el contexto de la Segunda Hipótesis, la formulación de un problema incluye:
- un componente generador de estructuras de símbolos que sean las posibles soluciones.
- un método de comprobación o test de que una de estas estructuras es la solución.
El conjunto de todas las estructuras de símbolos en el que se pueden representar las situaciones del problema, asï como las entradas y salidas se denomina Espacio del problema.
Un SSF, ante un problema y su correspondiente Espacio de problema, generará una serie de estructuras de símbolos que sean posibles soluciones del problema hasta que encuentra una que satisfaga el método de comprobación, y manifestará inteligencia en la medida en que lo consiga lo antes posible, con las siguientes condices adicionales:
1. La distribución de soluciones no será totalmente al azar, sino que habrá cierto orden y estructura en el espacio de estructuras de símbolos.
2. Dicha estructura del espacio de símbolos se puede detectar de alguna manera.
3. El generador de soluciones se comporta de forma diferencial en función de la estructura que detecta.
En suma: el espacio del problema debe contener información, el sistema debe ser capaz de detectarla, extraerla y utilizarla. Según esto, en los SSF hay inteligencia, siendo personas y ordenadores ejemplares de tales sistemas, pero ¿sólo en ellos?. Respecto a los animales parece que es posible ampliar la definición de los SSF a ellos sin mayor problema.
La definición de inteligencia de Newel y Simon es: capacidad para extraer y usar la información sobre la estructura del espacio del problema, de tal manera que genere la solución lo más rápida y directamente posible. Añaden además dos tesis adicionales:
1. La condición de que toda mente debe tener un soporte físico, lo que no es sino una forma de tesis de identidad en el problema mente-cuerpo, a no ser que se eche mano del concepto de superveniencia, cosa que estos autores no hacen. De hecho Newel reconoce que definir la mente como procesador de información implica identificarla con un sistema capaz de procesar información.
2. La neutofisiología es totalmente irrelevante para la naturaleza de la mente. Esta tesis es análoga a la paralela de la A.I. que dice que la electrónica es irrelevante para la A.I. Es decir: se debe hacer abstracción de la materialidad concreta del sistema.
Estas dos tesis es todo lo que Newel está dispuesto a aceptar como contribución de la A.I. al problema de la mente.
4. Volvemos a Searle.
Resumimos las conclusión de de Searle. A la pregunta (Primera Pregunta) ¿Puede pensar una máquina? Responde que evidentemente sí: nosotros somos precisamente esas máquinas. Pero la pregunta no irónica (Segunda Pregunta) se refiere a máquinas creadas por nosotros. Ahora la respuesta es: si tiene un sistema nervioso similar al humano, evidentemente sí.
Ahora aparece la neurofisiología con una importancia muy superior a lo que Newel querría conceder. Pero Searle afirma que sería posible conseguir consciencia e intencionalidad con procesos químicos diferentes a los que ocurren en los cerebros humanos.
La Tercera Pregunta es: ¿podría pensar un computador digital? Si por computador digital entendemos todo dispositivo que pueda describirse como la instanciación de un programa de ordenador, la respuesta también es afirmativa: nosotros somos la instanciación de cierto número de programas de ordenador (aquí Searle se apoya en la tesis de que toda persona es un autómata probabilista).
Pero, añade Searle, ninguna de estas es la pregunta correcta. Ésta sería la Cuarta Pregunta, con dos formulaciones equivalentes:
¿Para comprender es suficiente ser un ordenador con el programa adecuado?
¿Es suficiente para comprender tener instancias o el programa adecuado?
Y ahora la respuesta es NO. El motivo es que la manipulación de símbolos formales carece por sí misma de intencionalidad, los símbolos carecen de significado y por ello no son realmente símbolos. Searle tiene un concepto de símbolo más restrictivo que Newel, y exige una semántica. La intencionalidad de los computadores está en la mente del programador y del usuario que interpreta los resultados. Searle niega por lo tanto la licitud del paralelismo, tan caro a los partidarios de la A.I. entre software/hardware y mente/cuerpo. Tres son los argumentos en contra de dicho paralelismo:
1. Un mismo programa de ordenador puede ejecutarse de muchas maneras, no así los estados mentales.
2. El programa es meramente formal, mientras que los estados mentales tienen un contenido, o dicho de otra forma, tienen una intencionalidad.
3. Los estados mentales son producto del cerebro, pero los programas no son productos del ordenador. Este punto es crucial en la argumentación de Searle. Mientras que el programa se lo hemos dado nosotros a la máquina, ¿quién nos ha dado los estados mentales? Debemos necesariamente dar la razón a Searle cuando nos asegura que la mente es un producto del cerebro.
Finalmente Searle contesta a ciertos razonamientos que defienden que la A.I. produce, y por lo tanto explica los estados mentales:
Razonamiento 1. La mente procesa información, como el ordenador procesa información. En esa actividad está la esencia de lo mental. A esto Searle contesta que se está apoyando en una ambigüedad de la noción de información. El ordenador procesa símbolos formales, y eso es muy diferente de lo que hace un cerebro humano cuando reflexiona sobre un asunto. Aduce una vez más la ausencia de contenido semántico: en los ordenadores no hay semántica, ni contenido ni intencionalidad, por tanto no hay propiamente información.
2. Searle acusa a la A.I. de conductismo u operacionalismo residuales, cuando utilizan el test de Turing. Según Searle, liberarse de dicho conductismo y operacionalismo librará a la A.I. de la confusión entre simulación y duplicación.
3. Searle critica la poca atención que los estudiosos de la A.I. conceden al cerebro, centrándose en los programas. Afirma que con ello defienden un dualismo consistente en la separación absoluta entre cerebro y mente, tanto a nivel wmpírico como conceptual.
Sumando todo ello, Searle exhibe un cierto fisicismo que recuerda la identidad entre mente y cerebro. Sólo unas máquinas pueden pensar, y son los cerebros u otras máquinas que tengan los mismos poderes causales que los cerebros. Pero no se conocen tales máquinas, pues las máquinas se caracterizan por su programa, y la mente no consiste en instancias un programa.
Searle explica que los fenómenos mentales son producidos por fenómenos del sistema neuronal del cerebro, y realizados en dicho sistema. Las propiedades mentales serían macropropiedades del cerebro, que requieren de micropropiedades sobre las que realizarse. Diferencia por tanto dos niveles: un macro nivel de efectos neurofisiológicos mentales y otro micronivel de procesos fisiológicos neuronales. Aparentemente restringe al macro nivel la identidad mente-cerebro.
5. Relaciones del trabajo de Searle con otros, y reacciones al trabajo de Searle (p.118)
Wittgenstein
En sus Investigaciones filosóficas Wittgenstein afirmaba que Un proceso interno necesita de criterios externos. Searle opina que este principio es incompatible con lo que llamaron Principio de Suficiencia Neurológica (PSN), que enunciado así: Para cualquier fenómeno mental hay condiciones causalmente suficientes en el cerebro. El PSN es una consecuencia del hecho de que los fenómenos mentales son causados por el cerebro y se realicen en él.
No obstante, Wittgenstein habla de la explicación del significado de nuestras afirmaciones acerca de los estados mentales, no de de definición de los mismos.
Putnam
Putnam caracteriza la teoría de Searle como una mèlange de dualismo de propiedades, emergentismo y superveniencia.
Searle acepta el dualismo de propiedades siempre que se entienda que existen propiedades físicas que son mentales y otras que no lo son, y no que se entienda que existen propiedades físicas y propiedades mentales. Esto es así porque para Searle las propiedades mentales son rasgos físicos de nivel más alto de ciertos sistemas físicos.
Acepta también la emergencia de los estados mentales, como propiedades que pertenecen al sistema pero no a sus constituyentes, sin que haya nada misterioso ni metafísico en ello.
La superveniencia dictamina que no puede haber diferencias mentales sin las correspondientes diferencias físicas. Y como se deduce de que los hechos mentales tengan causas físicas en el cerebro, y acepta que las macropropiedades provienen de las micropropiedades, tampoco tiene Searle ninguna pega en aceptarlo.
El propio Searle resume todo ello en cuatro axiomas
A1. Los cerebros causan las mentes.
A2. La sintaxis no es suficiente para la semántica
A3. Las mentes tienen contenidos intencionales o semánticos.
A4. Los programas se definen sólo formal o sintácticamente.
Hofstadter (The Mind's)
Hofstadter señala que Searle comete un error por falta de realismo al suponer el comportamiento de la persona en el interior de la habitación china. El trabajo sería horriblemente complicado y lentísimo. No obstante, a Searle esto no le preocupa. Piensa sólo en la plausibilidad teórica del mismo. Por su parte, Hofstadter afirma que aunque el individuo no comprenda el significado, el conjunto del individuo con la totalidad de la habitación junto con los escritos en chino e instrucciones en inglés sí lo hace. Pensamos que está opinión es tan problemática como la tesis de Searle: ¿cómo puede añadir algo al concepto de comprensión los documentos, si ese algo no está ya en la mente del individuo?
La opinión de Hofstadter se recoge en el siguiente párrafo:
Las mentes existente en los cerebros y pueden llegar a existir en las máquinas programadas. En el caso de que tales máquinas aparezcan, sus poderes causales derivarán no se la sustancia de la que estén hechas sino de su diseño y de los programas que instancien.
Margaret Boden
Esta autora critica de la idea de Searle de caracterizar los programas de ordenador como puramente sintácticos y carentes de semántica. La ciencia de la computación debe partir de la base de que una función esencial de un programa es hacer que suceda algo. De ahí que las consecuencias procedimentales de un programa pongan a éste en contacto con la semántica, siendo ésta una semántica causal aunque no sea denotacional.
En efecto si la semántica es la relación entre los símbolos y los objetos, esa relación puede ser denotacional o causal según que los símbolos denoten objetos o produzcan en ellos algún efecto.
Penrose
Se puede aducir que tanto Hofstadter como Boden eran partidarios previos de la A.I. Sin embargo tampoco todos los críticos de la A. I. les ha convencido plenamente el argumento de Searle. Penrose (Shadows of the Mind), por ejemplo, opina que no es concluyente, aunque sea persuasivo contra la tesis central de la A. I. de que todo pensamiento es computación. Penrose argumentará contra la idea extendida por los teóricos de la computación de que todo es un computador digital, idea que ha calado también en Searle, y contra la que argumenta Penrose.