INTRODUCCIÓN AL PROBLEMA DE LA DEMARCACIÓN

INTRODUCCIÓN AL PROBLEMA DE LA DEMARCACIÓN

(tomado de http://nulliusinverbasite.com/texto-informativo/demarcacion/?fbclid=IwAR2-P1Awsd0GMQo5zOGJxWECimQWfldVc5tD9F4BO7npKGz82EbNNIoPuMM)

 

 

El principio de Verificación

 

(Lat. verificare: demostrar la verdad). Se trata de uno de los principios de partida del positivismo lógico, según el cual básicamente, la autenticidad de las proposiciones acerca  del mundo debe ser establecida en última instancia mediante su validación con los datos empíricos. Tal como fue formulado por el círculo de Viena, se sustenta en la tesis de que el conocimiento generalmente no puede superar el marco de la experiencia siempre que en él se distinguen la verificación inmediata de las afirmaciones. Antes de continuar, no hace falta advertir que inmediatamente se puede deducir que este principio reduce el saber del mundo a todo lo “dado inmediatamente” y priva de significado cognoscitivo a las afirmaciones científicas no comprobables directamente a través de la vía experimental. Sin embargo, existe una variante “débil” del mismo.

 

Un abordaje más detallado según Ayer (1984) es que se supone que el principio de verificación en efecto proporciona un criterio a través del cual es posible determinar si una sentencia es literalmente significativa o no. Una manera sencilla de formularlo sería decir que una sentencia tiene significado literal si y sólo si, la proposición que expresa es analítica o verificable empíricamente. Sin embargo, a esto podría objetarse que, si una sentencia no fuera literalmente significativa, no expresaría una proposición; pues comúnmente se da por hecho que toda proposición es verdadera o falsa, por lo tanto, decir que una sentencia expresa lo que es verdadero o falso equivaldría a decir que es literalmente significativa. En ese sentido si este principio se hubiese formulado  de  tal forma, no solo podría decirse que sería incompleto como criterio de significado, ya que no comprendería el caso de las sentencias que no expresan proposición alguna en absoluto.  Sino también sería inútil en razón de que la pregunta que debería contestar tendrá ya que haber sido contestada antes de que se lo pudiese aplicar.

 

En su obra “Lenguaje, verdad y lógica” Ayer introduce un principio que trata de salvar esa dificultad del criterio de verificación, a través de “proposiciones presuntas” y de proposiciones que una sentencia “pretende expresar”; recurso que de hecho es interesante y salva un poco la cuestión, sin embargo, como el mismo Ayer admite, no es satisfactorio al cien por ciento. Rápidamente se puede esbozar que el uso de palabras como “presunto”  y “pretender” llevan a consideraciones psicológicas- cognitivas, en las que el autor no profundiza, él mismo admite que no es su intención hacerlo. En segundo lugar, en el caso de que la “proposición presunta” no fuera ni analítica ni verificable empíricamente, “de acuerdo con esta forma de hablar parecería que no hay nada que la sentencia en cuestión pueda propiamente decirse que exprese” (Ayer, 1984).

 

Pero si una sentencia no expresa nada, parece haber una contradicción en decir que lo que expresa es empíricamente inverificable; pues aun si se dictamina, por esa razón, que la sentencia carece de sentido, al referirse a “lo que expresa” aún parece implicar que hay algo expresado. Ayer propone que una forma de resolver  estas  dificultades  radica  en aplicar el principio de verificabilidad a las  sentencias  exclusivamente,  olvidándose  de hacer referencia a las proposiciones y aunque esto parezca ingenuo o ridículo Ayer los desglosa extendiendo el uso de la palabra proposición entre otros arreglos que proporciona   a lo largo del texto, tales como esta “segunda” formulación del principio de verificación, según la cual un enunciado se considera literalmente significativo si, y solo si, es o bien analítico o bien verificable empíricamente.

 

Pero, ¿Cómo hay que entender en este contexto  el  término  “verificable”?  En  este punto es cuando Ayer recurre a la distinción entre un “sentido fuerte” y uno “débil” del término “verificable” en donde sí se dice que:

 

1. Una proposición es verificable en sentido fuerte, si y sólo si, su verdad puede establecerse en forma concluyente mediante la experiencia

 

2.  Una proposición es verificable en el sentido débil, si es posible que la experiencia la haga probable, 

 

y además de ofrecer mayor profundidad en esta explicación también argumenta que solo el sentido débil del término es el que requiere su principio de verificación. Esto si se supone de ello también una ventaja práctica, como él mismo argumenta (Ayer, 1984).

 

Tal pequeña profundización anterior es valiosa para extender el entendimiento del principio de verificación e incluso suscitar al lector su abordaje más  adecuado,  sin  embargo, no es de incumbencia en este texto continuar en tales detalles que, si bien son importantes, no constituyen gran parte del camino a seguir.

 

Concepción Popperiana sobre el Progreso de la Ciencia (Falsacionismo)

 

Para Karl Popper (citado en Jaramillo y Aguirre, 2004) el desarrollo de la ciencia es algo innegable, de hecho, es indispensable para el carácter racional y empírico del conocimiento científico, de esta forma, si la ciencia deja de desarrollarse, pierde este carácter. Popper (1980) expone que el problema central de la epistemología ha  sido siempre, y sigue siendo, el problema del conocimiento. Y el mejor modo de estudiar el aumento progresivo del conocimiento es para él, estudiar el del conocimiento científico mismo. Para Popper el conocimiento científico nace de los problemas y no de la verificabilidad de hechos empíricos; cualquier pretensión de usarla como principio de sentido, conduciría a la ciencia a su aniquilamiento. (La falsabilidad es un criterio de demarcación, pero no de sentido)

 

(El modelo básico de razonamiento que se utiliza en el deductivismo es el modus Tollens: de «si H, entonces c, y no-c», se infiere (deductivamente) «no-H» Frente al inductivismo, el deductivismo sustenta que las inferencias que se utilizan en el método científico han de ser deductivas. En contraste también con el inductivismo, la concepción deductivista de la ciencia sostiene que no hay observación empírica sin una teoría previa que la guíe y sobre la cual los resultados de la  observación,  puedan  acomodarse,  así supone el desarrollo de las siguientes fases sucesivas: Conjetura, deducción de una conclusión, falsación, eliminación de hipótesis falsas o rechazadas). El criterio de la falsabilidad se sustenta en esta tesis lógica.

 

Desde esta perspectiva, si de una teoría derivan una serie de consecuencias y, a su vez, somos capaces de formular enunciados contradictorios con dichas consecuencias, tenemos entonces una serie de falsadores potenciales de la teoría. Popper propone que el progreso de la ciencia no se trata de una acumulación de observaciones, sino del repetido y sistemático derrocamiento de teorías científicas y su reemplazo por otras mejores o más satisfactorias, por decirlo de alguna manera.

 

Tal derrocamiento no se produce precipitadamente, sino gracias a los esfuerzos de los científicos por diseñar experimentos y observaciones más detalladas con el fin de testar (corroborar) las teorías, especialmente las teorías nuevas (Popper, 1980). En tal sentido, propone un método alternativo al inductivismo: la interpretación deductivista, denominada falsación, método que sirve no sólo como criterio de demarcación, sino también como un mecanismo para poner a prueba teorías hallando para ellas falsadores  potenciales y facilitar, en conclusión, el desarrollo y evolución de la ciencia (Jaramillo y Aguirre, 2014).

 

Para alcanzar y lograr una buena teoría, Popper propone una forma de metodología que parte de la investigación de problemas que se esperan  resolver.  Frente  a  estos se ofrece una solución tentativa por medio de la formulación de teorías, conjeturas, hipótesis. Las diversas teorías competitivas son comparadas entre sí y discutidas críticamente con el objetivo de detectar sus deficiencias. Al final, surgen los resultados de la discusión crítica, esto, para Popper se denominaría “ciencia del día” (Jaramillo y Aguirre,  2004).  Para Popper, entonces, la ciencia se construye de un conocimiento hipotético y conjetural.

 

Toda teoría debe someterse a testeo; con todas las “armas” de nuestro arsenal lógico, matemático y técnico (tecnológico), tratando de socavar las hipótesis falsas por medio de la demostración; la teoría que resista la mayor cantidad de test  cruciales,  puede  considerarse como una buena teoría científica; es decir,  una “teoría que nos dice más, o sea, que contiene mayor cantidad de información o contenido empírico, que es lógicamente más fuerte; que tiene mayor poder explicativo y predictivo; y que, por ende, puede ser testada más severamente comparando los hechos predichos con  las  observaciones” (Popper, 1980).

 

Los científicos, al formular sus teorías, deben según esto, otorgar menos relevancia a la probabilidad y más a la verosimilitud. Con esto es necesario dejar claro el concepto de verdad según Popper, a saber,  el mismo que comparte Tarski  (el mismo que más adelante  se detalla a profundidad en cuanto al realismo científico): verdad como correspondencia con los hechos. El científico siempre trata de hallar teorías verdaderas, o al menos, teorías que estén más cerca de la verdad que otras. La verdad, se torna para el científico en un principio regulador, que si bien, no le permite saber que es poseedor de la verdad, al menos le sirve para comprender que aún no la ha alcanzado y que debe procurar el conocimiento que sistemáticamente se aproxime mejor a ella.

 

Ahora bien, si se comparan los contenidos de verdad (Ctv) y los contenidos  de falsedad (Ctf) de dos teorías T1 y T2, ¿cómo se puede determinar que T2 es más  semejante a la verdad o corresponde mejor a los hechos que T1? Para ello deben reunirse dos condiciones: El contenido de verdad (Ctv), pero no el contenido de falsedad (Ctf), de una Teoría 2 (T2) es mayor que el de la Teoría 1 (T1). El contenido de falsedad de T1, pero no su contenido de verdad, es mayor que el de T2. Preferimos T2, que ha pasado ciertos test severos, a T1, que ha fracasado en esos  test, puesto que una teoría falsa es ciertamente peor que otra que, de acuerdo con nuestro conocimiento, puede ser verdadera (Popper, 1980).

 

Planteamientos de Kuhn sobre la práctica científica.  Kuhn de 1962 y sus planteamientos posteriores a “la estructura de las revoluciones científicas”.

 

En su famosa y controversial obra “La estructura de las revoluciones científicas”, Kuhn expone sus tesis fundamentales de una manera “sencilla” y con abundancia de ejemplos extraídos de la historia de la ciencia. Según Jaramillo y Aguirre (2004) en estas tesis se hallan elementales conceptos como enigma, anomalía y revolución científica, cuya aceptación depende de los componentes psicológicos y sociológicos propios de la comunidad científica. Su propuesta también aborda la diferencia entre la “ciencia  normal”, “ciencia extraordinaria” y la concepción de paradigma, siendo este último  concepto el que influiría reflexiones posteriores.

 

En primer lugar, será preciso establecer las diferencias entre ciencia normal y ciencia extraordinaria. La ciencia “normal”, practicada por una  comunidad científica madura, puede determinarse en gran medida y con relativa facilidad a través de la inspección o revisión de los paradigmas que la conforman. Pese a las dificultades que el término paradigma encierra, por incluir conceptos aparentemente heterogéneos, puede conservarse la siguiente definición: 

 

Los paradigmas son realizaciones científicas universalmente reconocidas que, durante mucho tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica” Thomas Kuhn  (citado en Jaramillo y Aguirre, 2004). 

 

Todo paradigma indica seguridad, terreno firme, alto grado de certeza. En este sentido, el investigador científico se apoya en los paradigmas para desarrollar su práctica científica. Las revoluciones científicas nacen de la necesidad de buscar nuevas formas de explicar los hechos, puesto que las explicaciones “viejas” no les satisfacen.

 

Según los primeros planteamientos de Kuhn, los paradigmas atraen y son válidos durante un tiempo para un grupo de científicos, también, son incompletos, al dejar problemas que “se les escapan” para ser resueltos por la comunidad científica. Dicho esto, es posible volver a abordar el concepto de “ciencia normal”, ésta puede asimilarse como una resolución de enigmas instrumentales, conceptuales y matemáticos, considerándose con ello un “experto” a quien después de ser preparado en el estudio de los paradigmas compartidos por la comunidad científica particular con la que trabajará más tarde, logre con éxito resolver los enigmas planteados. Los científicos que hacen parte de la “ciencia normal” apoyados en el paradigma vigente, buscan, además de otras cosas, determinar los hechos significativos, acoplar los hechos a la teoría y de esta manera articular la teoría (Jaramillo y Aguirre 2004). En suma, el “científico normal” al aceptar un paradigma intenta hacer “encuadrar” los fenómenos de la naturaleza dentro de los modelos que el paradigma “impone”.

 

Esto posibilita el desarrollo del conocimiento dentro de  la  actividad  científica normal, y obligar a la comunidad científica a resolver los problemas que el paradigma plantea” (Jaramillo y Aguirre 2004). Así pues, el fundamento de esa actividad “normal” radica en la determinación del hecho significativo, acoplando los hechos a la teoría, la ciencia normal no tiende hacia novedades fácticas y, cuando tiene éxito, no descubre ninguna (Kuhn, 2001).

 

Fasce (2016) resume esto de la siguiente manera: “La estructura de las revoluciones científicas” presenta a la ciencia como dividida en dos etapas  diferentes. Primero, la ciencia “normal”, en la que los científicos se encargan de resolver rompecabezas dejando amplias parcelas de creencias intocables, aceptándose de forma dogmática."

 

Según Jaramillo y Aguirre (2004) es precisamente esta última afirmación la que abre campo para abordar el concepto de ciencia “extraordinaria” o más conocida como ciencia en crisis. Hay una serie de fenómenos que no se dejan asimilar por los  paradigmas existentes, que a pesar de estar presentes, en ocasiones no son  percibidos  por  los  científicos de “la ciencia normal”; tales fenómenos son precisamente las anomalías que indican una dificultad o imposibilidad de acoplamiento con el paradigma existente, podría pensarse que son un enigma más de la ciencia normal; pero, su dificultad aglomera cada vez más un mayor número de científicos que intentan resolverlo (es tal su exigencia), estableciendo hipótesis ad hoc, hasta hacerse confusas para la ciencia normal.

 

Según Kuhn, (2001) esto lleva a desacuerdos entre los practicantes de la ciencia quienes empiezan a dudar, incluso, de las anteriores soluciones dadas por el paradigma y, finalmente, culminan en la de un nuevo candidato a paradigma y la lucha para que éste sea aceptado: Cuanto más preciso sea un paradigma y mayor sea su alcance, más sensible será como indicador de la anomalía. Por consiguiente, otorga espacio para el cambio de paradigma. Vale aclarar que mientras no se disponga de un sustituto el paradigma  en crisis deberá ser sostenido.

 

Ese paso de un paradigma a otro, según Kuhn (2001) se da de forma abrupta, es decir no es gradual, se trata de “verdaderas revoluciones” las que ocurren en esta transición. En tiempos de “revolución” el científico “normal” debería educarse, “empezar a habitar un hogar distinto” y ver las mismas cosas de “formas diferentes”. De igual forma la ciencia  debe redefinirse; pues al cambiar los problemas, deberían pues cambiar las normas. Acá entra el concepto de “inconmensurabilidad” de Kuhn, básicamente según esto, la tradición científica normal que surge de una revolución científica es no sólo incompatible sino a menudo también realmente incomparable con la anterior (Kuhn, 2001).

 

Los paradigmas no son ni mejores ni peores, sólo diferentes. Son ‘inconmensurables’, establecen sus propios sistemas de racionalidad internos. No  hay diálogo posible entre ellos como no hay diálogo posible entre un coral y un murciélago” (Fasce 2016). Vale en este punto tener en cuenta la clara oposición al falsacionismo, pues el hecho de rechazar un paradigma, conlleva el que otro lo reemplace.  Por lo tanto, hasta el grado en que se dedique a la ciencia normal, el investigador es un solucionador de enigmas, no  alguien que ponga a prueba los paradigmas (falsacionismo), puesto que para Kuhn (2001) los fracasos no rechazan del todo las teorías.

 

Según este primer Kuhn, no hay una forma racional de cambio inter-teórico, sólo se puede preferir y elegir entre paradigmas por meras simpatías personales, de la misma comunidad científica. Porque la ciencia revolucionaria es puro marketing. Eso es el primer Kuhn (Fasce, 2016).

 

Para Popper, la ciencia siempre está en un estado de revolución, de cambio, de innovación. Para Kuhn, sin embargo, la revolución científica es un hecho aislado, puntual, localizado históricamente, separado del siguiente por largas etapas de ciencia normal.” (Sequeiros, 2012).

 

se pasó (Kuhn) todo el resto de su vida tratando de remediar el daño causado. Se acabó retractando practicamente de todo. Los paradigmas pasaron a ser ‘matrices disciplinares’ mucho más comedidas, elaboró incluso un criterio de demarcación basado en el puzzle-solving, describió la existencia de ciertos valores positivos en la ciencia e incluso rebajó lo de la irracionalidad de las revoluciones. ” (Fasce, 2016).

 

La controversia de 1965

 

Según autores como Sequeiros (2012) y Jaramillo y Aguirre (2004) entre otros, la década de los 60 marca un antes y un después de la filosofía de la ciencia. Un acontecimiento posterior a la publicación de “La estructura de las revoluciones científicas” marca lo que será la epistemología hasta el final del siglo. Precisamente en 1965  se celebró en Bedford Collage de Princeton un seminario internacional de la Filosofía de la ciencia.

 

Cuando Popper, Kuhn y otros reconocidos autores se encontraron en este coloquio internacional, las teorías ya descritas eran ya ampliamente conocidas y las simpatías por uno y por otro autor eran evidentes; sin embargo, nunca como en ese escenario (Jaramillo y Aguirre 2004). Las conclusiones que de este coloquio derivaron fueron de gran importancia para lo que en adelante venía en epistemología y la honestidad de los debates  fue de gran importancia para aclarar posturas, perfilar problemas y diseñar intentos de comprensión y de síntesis.

 

El pensamiento de Kuhn fue expuesto claramente, y aunque su postura era minoritaria, le obligó a reformular muchas de sus propuestas anteriores e intuiciones.  Conocer algunos de los puntos del debate puede ser de gran interés por cuanto ayudan a  repensar la naturaleza y a entender la transición que tuvo el pensamiento de Kuhn. Siendo así, se hicieron frente debates entre dos modelos epistemológicos diferentes: por un  lado,  el modelo netamente racionalista, asentado e incuestionable hasta entonces de  Karl  R.  Popper; por otra parte, el modelo historicista, psicológico y sociológico, defendido y propuesto como innovador por el filósofo Thomas Samuel Kuhn.

 

Los ejes de las controversias fueron los siguientes:

 

El debate lo inicia Kuhn, esta primera intervención titulada  ¿Lógica del Descubrimiento o psicología de la investigación? En donde destaca que la diferencia de pensamiento con Popper, son menos que los puntos de contacto, entre los cuales señala que ninguno de los dos concibe la ciencia como una empresa que progrese de forma acumulativa, ambos coinciden pues en que “el análisis del desarrollo del conocimiento científico debe tener en cuenta el modo como la ciencia trabaja en realidad” (Kuhn, 1975).  Y,  por otro lado, no existe, a decir de Kuhn, mayor diferencia con Popper respecto a la tesis de la falsación. Sin embargo, Kuhn critica un aspecto fundamental de Popper, menciona que él, está convencido de que un científico construye hipótesis y las contrasta con la experiencia,  estas contrastaciones cumplen la función de explorar las limitaciones de la teoría aceptada o de amenazar lo más posible a una teoría vigente, señalan Jaramillo y Aguirre (2004) . Entonces la ciencia crece no a través de la acumulación de conocimiento sino por un “derrocamiento revolucionario” de una teoría aceptada y su reemplazo por otra mejor. Es decir, según Kuhn (1975) Popper está teniendo en cuenta supuestamente una sola cara de la moneda porque no considera la diferencia crucial entre ciencia normal y ciencia extraordinaria. Es decir que Popper solo analiza supuestamente lo que ocurre en tiempos de crisis a la ciencia, pero descarta de su análisis la práctica “normal” de la ciencia.

 

Por su parte Karl Popper en su ponencia “la ciencia normal y sus peligros”, acepta el concepto general de lo que Kuhn describe como “ciencia normal”. Sin embargo, advierte las consecuencias que este concepto pueda tener; Popper precisa que la ciencia es un edificio; pero apunta que el científico trabaja para mejorarlo sin necesidad de destruirlo. En su defensa, Popper también argumenta que en modo alguno desconoce el hecho de que “los científicos desarrollan necesariamente sus ideas dentro de un marco general teórico definido” (Popper, 1980). De hecho, Karl Popper (citado en, Jaramillo y Aguirre 2004) también cita in extenso el primer párrafo del prefacio a la primera edición de 1934 de “la lógica de la investigación científica” donde evidencia de forma clara que sí ha tenido en cuenta la situación “normal” de un científico, semejante a lo planteado por Kuhn.

 

Popper no cree en las “revoluciones”, en cambios drásticos. A su vez para Popper no hay una diferencia radical entre ciencia normal y extraordinaria, sino que se encuentran varios matices entre éstas, siendo no tan tajante la escisión como la hace ver Kuhn. Argumenta que el científico “normal” es un sujeto a quien hay que tener pena Sequeiros (2012) y Jaramillo y Aguirre (2004). Pues ningún científico honesto considera que hace ciencia normal; Popper define esa actividad normal como:” la actividad de los profesionales no revolucionarios, o, dicho con más precisión, no demasiado críticos; del estudioso de la ciencia que acepta el dogma dominante del momento; que no desea desafiarlo; y que acepta una teoría revolucionaria nueva sólo si casi todos los demás están dispuestos a aceptarla, si se pone de moda” (Popper, 1975).

 

Puede advertirse con Popper, que, si esa es la forma “normal” con la que los científicos asumen su trabajo, esta actitud es en modo sumo perjudicial a la ciencia misma  en tanto producto humano, en tanto que condena al científico a un adoctrinamiento tal que le impide progresar más allá de su práctica, cuestionar el paradigma que defiende y ser creativo. Para Popper, por tanto, la labor que ejerce el científico dentro de la “ciencia normal”, es de alguien que desarrolla una ciencia poco crítica y reflexiva; es decir, petrificada y agonizante; que asume los paradigmas de forma ingenua sin someterlos a procesos de conjetura y refutación permanente (Jaramillo, 2004).

 

Popper asegura y se busca reiterar con esto algo que ya se había mencionado anteriormente, que ninguno de los científicos registrados en las memorias de la historia de la ciencia, fueron “científicos normales” propiamente dichos.  Popper menciona  un  ejemplo claro para ilustrar su postura: Charles Darwin, no es precisamente un ejemplo de revolucionario, pero, tal vez a pesar de ello, su obra está inundada de problemas genuinos que continuamente compiten buscando posibles soluciones. No basta entonces a un científico dedicarse a resolver enigmas o rompecabezas, a lo que se  enfrenta es a problemas reales (Popper, 1975).

 

Para finalizar, en otra de las intervenciones del seminario de Bedford College, la profesora Margaret Marterman (citada en, Sequeiros, 2012) se  refiere  al concepto kuhniano de paradigma (su ponencia se titula La naturaleza del Paradigma). Analiza este concepto en Kuhn el primero y quizá más importante de sus análisis es reconocer la dificultad del mismo Kuhn para definir lo que es un Paradigma. Una lectura atenta de sus obras lleva a la conclusión de que existen hasta 21 definiciones diferentes de lo que es un paradigma. Por tanto, este concepto es problemático en la misma epistemología kuhniana (Sequeiros, 2012).

 

Cabe recomendar la lectura de otras ponencias de este seminario  tales  como:  “Falsación y metodología de los Programas de Investigación Científica” de Imre Lakatos a favor de Popper; Peirce Williams también dio su  opinión  en  su  ponencia  “Ciencia Normal, Revoluciones Científicas e Historia de la Ciencia”; Stephen Toulmin, quien se pregunta: ¿Es adecuada una distinción entre ciencia normal y ciencia revolucionaria? Toulmin, coherente con su epistemología “darwinista”, pone en cuestión muchos de los conceptos básicos kuhnianos y la ponencia completa de Margaret Marterman.

 

A este acontecimiento se le reconoce como una de las reuniones de filosofía de la ciencia más importantes de la segunda mitad del siglo XX. Fue relevante en tanto contribuyó en madurar, modificar, matizar y rectificar muchas de las posturas que se habían defendido de forma independiente por cada autor durante treinta años. El desarrollo del debate puede encontrarse en el tomo cuatro  de las Actas: Lakatos, I. Y. Musgrave, A. edit. (1970) Criticism and the growth  of knowledge (Cambridge, University Press). En español: La Crítica y el desarrollo del Conocimiento (Grijalbo, Barcelona, 1975).

 

El “segundo” Kuhn

 

Habiendo revisado parte del anterior evento mencionado, queda en claro por qué los hay autores que han querido ver “otro” Kuhn a partir del enfrentamiento con Popper en 1965. Esto llevó a Kuhn no sólo a clarificar su postura sino incluso a modificar su posición. Desde entonces, Kuhn fue más cauto en el uso del término (paradigma) que es sustituida por la de matriz disciplinar como ya se mencionó anteriormente.

 

Se debe comenzar por describir la matriz disciplinar, la cual está formada por tres elementos clave:

 

1. Las llamadas “generalizaciones simbólicas”, que se refieren a  los  componentes  formales de la matriz disciplinar.

 

2. Los “modelos”, que son guías para la investigación.

 

3. Los “ejemplares” o problemas concretos y los “valores  compartidos”  por  los científicos.

 

En La Tensión Esencial (1996) Kuhn hace una distinción interesante entre “descubrimientos predichos por la teoría” y “descubrimientos predichos fuera de  la teoría”. Los primeros pertenecen a las unidades del modelo y los segundos a los llamados “enlaces” o “puentes” que se establecen entre dos matrices disciplinares sucesivas. Kuhn intenta especificar cuáles son los factores objetivos que pueden servir de criterio para discernir entre una buena teoría y una teoría científica rechazable (Sequeiros, 2012). Las cinco características demarcatorias propuesta por Kuhn son las siguientes:

 

1. Una teoría debe ser rigurosa dentro de su dominio, es decir, las consecuencias deducibles de la teoría deben estar en demostrado acuerdo con los resultados de los experimentos y observaciones existentes.

 

2. Una teoría debe ser consistente, no solamente internamente o consigo misma, sino también con otras teorías aceptadas actualmente y aplicables a aspectos de la naturaleza relacionadas con dicha teoría.

 

3. Debe tener un amplio campo de aplicación: en primer lugar, está designada para explicar observaciones particulares, leyes o subteorías.

 

4. Debe ser simple, introduciendo orden a los fenómenos que, en ausencia de la teoría, estarían aislados individualmente y, en conjunto,

 

5. Una teoría debe ser fructífera respecto a nuevos descubrimientos de investigación, esto es, debe revelar nuevos fenómenos o relaciones anteriores no señaladas entre aquellas ya conocidas (Sequeiros, 2012), (Kuhn, 1996).

 

La filosofía de Kuhn tuvo un impacto con respecto a las ideas de progreso y  racionalidad, sin embargo, lo tomó por sorpresa la manera en cómo su trabajo produjo una crisis de la racionalidad. Más tarde, se retractó, escribiendo que él nunca pretendió negar las virtudes comúnmente asociadas con las teorías científicas.  Las  teorías  deberían  ser precisas esto es, adecuarse a los experimentales existentes; deberían ser internamente consistentes y consistentes con otras teorías aceptadas, amplias en alcance y ricas en consecuencias, simples en estructura y organizar los hechos de una manera inteligible, ser fructíferas y descubrirnos nuevos sucesos, nuevas técnicas y relaciones (Hacking, 1996).

 

Los programas de investigación científica de Imre Lakatos

 

Las teorías que componen un programa de investigación, pueden presentar “cambios progresivos” o “cambios degenerativos” Por programa de investigación científica entiende Lakatos una configuración de teorías interconectadas, ninguna de las cuales se considera totalmente autónoma por lo que es difícil descartar teorías  individuales  sin  hacer  referencia al programa de investigación como un todo; no es más, entonces,  que  un conjunto de reglas metodológicas, heurístico positivas unas y heurístico negativas otras, que nos definen cuáles son los senderos a seguir y cuáles los problemas a evitar para la elaboración de nuevas teorías. (Lakatos, 1989)

 

Es decir, una cadena de teorías T1, T2, etc.… es progresiva si satisface los siguientes requisitos, Imre Lakatos (citado por Blaug 1985, pág. 56):

 

·         Tn tiene un contenido empírico excedente sobre Tn-1, es decir que  Tn  predice hechos nuevos, improbables e incluso prohibidos por Tn-1.

·         Tn explica el éxito previo de Tn-1, todo contenido no refutado de Tn-1 está contenido en Tn.

·         Tn tiene corroborado algo o todo el exceso de contenido respecto a Tn-1.

·         Si no ocurre lo anterior, el cambio es degenerativo

 

De otra manera más digerible, Blaug (1985) explica que Lakatos separa dos tipos de programas de investigación: 

 

Un programa de investigación científico será calificado de progresivo si las sucesivas formulaciones del programa representan un aumento de su contenido empírico con respecto a la formulación anterior y además este aumento de contenido resulta contrastado con la realidad. 

 

Como señala el mismo Lakatos (1989): En ciencia aprendemos de la experiencia no la verdad (o probabilidad) ni la falsedad (o improbabilidad) de las teorías, más bien del progreso y degeneración empíricas, particulares de cada uno de los programas de investigación científica (P.I.C).

 

Por otra parte, la característica fundamental de los programas degenerativos es que brindan soluciones “a posteriori”, tratando de acomodarse a cualquier hecho ya observado. También es preciso tener en cuenta que no todo programa es científico de manera perpetua, pues puede pasar de cumplir los criterios de demarcación, o sea, ser progresivo, a volverse un programa degenerativo y perder su rigor.

 

Para él, la unidad básica de evaluación no debe ser una teoría o conjunto de teorías aisladas, sino un “programa de investigación” con un núcleo aceptado por convenio y con una heurística positiva que define problemas que abordar, traza las líneas generales de la construcción de un cinturón protector de hipótesis  auxiliares;  es decir, respuestas tentativas a problemas que deben ser puestas a prueba y una vez esto sea  así,  ser  desechadas o aceptadas e incluidas como complemento de las teorías), prevé anomalías y las convierte victoriosamente en ejemplos, todo ello según un plan preconcebido, esto significa que el núcleo central (que está contenido dentro de la heurística negativa de un programa) puede sobrevivir a refutaciones, mientras que el resto está abierto al rechazo o mejora (falsacionismo sofisticado), haciendo perfectible la empresa científica (Lakatos, 1989).

 

En otras palabras, según esto el cinturón protector es en el que se desarrollan las hipótesis capaces de ser expuestas a contrastación empírica y por lo tanto el que resiste el peso o los “balazos” de las contrastaciones realizadas a los conjuntos de teorías, no por ello significa que sea infalible, al contrario el cinturón es flexible a irse ajustando, reajustando o incluso ser sustituido según las evidencias, es así que mediante esa adaptación, se están cumpliendo los requisitos para que la cadena de teorías presente los cambios progresivos de los que se habló anteriormente y así sea perfeccionado el contenido del núcleo fuerte del programa y de esa forma se haga más denso.

 

En palabras de Lakatos (1989) la teoría de la relatividad, la mecánica cuántica, el marxismo, son todos ellos programas de investigación dotados de un cinturón protector flexible, de un núcleo firme característico pertinazmente definido, y de una elaborada maquinaria para la solución de problemas. Todos, en cualquier etapa de su desarrollo presentan problemáticas para resolver anomalías no asimiladas. ¿Pero todas las teorías son igualmente buenas? Hay que distinguir entonces un programa de investigación progresivo de uno regresivo.

 

Asimismo, en contraposición a Popper esa diferencia no puede radicar en que algunos aún no han sido refutados, mientras que otros ya están refutados.  Cuando Newton publicó los Principia, se sabía perfectamente que ni siquiera podía explicar adecuadamente el movimiento de la luna; de hecho, esto representaba un problema al que los heurísticos positivos del programa newtoniano debían enfrentarse. Kaufman, otro físico destacado y poco conocido, intentó refutar la teoría de la relatividad en el mismo año que fue publicada. Pero todos estos programas de investigación que Lakatos menciona admirar, cumplen con una característica en común: todos  ellos  predicen  hechos  nuevos,  hechos que previamente ni siquiera habían sido considerados o que incluso  habían  sido contradichos por programas previos o rivales (Lakatos, 1989).

 

Una característica notable de la obra de Lakatos son los abundantes ejemplos de la historia de la ciencia, uno de ellos también acerca de Newton es que en 1696 cuando publicó su teoría de la gravitación había dos teorías en circulación relativas al movimiento y otras características físicas de los cometas y otras de orden teológico. La más popular era la de origen teológico que consideraba a los cometas una señal de Dios, un Dios irritado que advertía que iba a golpear y a ocasionar un desastre. Otra, menos conocida fue la de Kepler ésta defendía que los cometas se trataban de cuerpos celestes que se movían en líneas rectas. Ahora bien, según la teoría de Newton, algunos de ellos se movían en hipérbolas o parábolas y nunca regresaban y otros en elipses ordinarias. Halley, que trabajaba en el programa de Newton, calculó, observando un tramo reducido de la trayectoria de un cometa que éste regresaría 72 años después, calculo que tenía una precisión de minutos cuando se le volvería a ver en un punto definido del firmamento. Efectivamente así mismo sucedió, tal como el programa de Newton, había predicho a partir de los cálculos de Halley. De modo análogo los científicos newtonianos predijeron la existencia y movimiento exacto de pequeños planetas que nunca habían sido observados con anterioridad.

 

Según las ilustraciones anteriores lo que se debe  evaluar  son  configuraciones  de teorías con más o menos similitud o programas de investigación, entre sí, o sea, evaluar “Reglas metodológicas: algunas nos dicen las rutas de investigación  que  deben  ser  evitadas (heurística negativa), y otras, los caminos que deben  seguirse  (heurística  positiva)” (Lakatos, 1989, pág. 65).

 

En palabras de Mark Blaug (citado en, Gómez, s.f): “Lakatos es menos duro con la ciencia que Popper, pero mucho más duro que Kuhn, y se siente siempre más inclinado a criticar la mala ciencia con la ayuda de una buena metodología que a evaluar las especulaciones metodológicas recurriendo a la práctica científica”

 

En conclusión, una disciplina será científica si y sólo si, ésta progresa como programa de investigación. De no ser por la generación de nuevo conocimiento y el progreso científico, entonces se estaría hablando de una disciplina no científica. Si hablamos de una disciplina que no genera nuevo conocimiento, que no progresa y que además se hace ver como si en verdad cumpliera este requisito, hablamos de una pseudociencia, y cabe también, con variaciones, para las otras distinciones que incluyen las no-ciencias que no necesariamente son catalogadas como pseudociencias.

 

La propuesta de los programas de investigación mostró tener gran influencia en los trabajos posteriores de autores como Paul Thagard, Daniel Rothbart y George Reisch. Los trabajos de Lakatos y los demás que siguieron la misma línea, ayudaron a formular y aclarar un punto clave en los conceptos de ciencia y pseudociencia: la ciencia es una actividad que progresa, que continúa en proceso y las disciplinas que se identifican como ciencias se complementan mutuamente con conocimientos ya obtenidos.

 

La propuesta multicriterio de Mario Bunge.

 

Antes de exponer los criterios propiamente dichos conviene exponer los principios filosóficos que según Bunge (2010) deben ser tácitamente satisfechos por las ciencias maduras (física, química, biología); y parcialmente satisfechos por las disciplinas inmaduras o en desarrollo (psicología y ciencias sociales) y los cuales son violados en su mayoría por las pseudociencias. En este sentido, según el autor, también, cualquier filosofía capaz de comprender y promocionar la investigación científica debe reunir tales características:

 

-Lógica. Coherencia interna y cumplimiento de las reglas de la inferencia deductiva; aceptación de la analogía y la inducción como medios heurísticos sin afirmar a priori la validez de los argumentos analógicos o inductivos.

 

-Semántica. Teoría realista del significado como referencia propuesta (denotación). y a diferencia de la extensión- unida al sentido o la connotación. Y una concepción realista de la verdad fáctica acerca de los hechos como adecuación de una proposición a los hechos a los que se refiere.

 

-Ontológica

 

-a: Materialismo (naturalismo). Todas  las cosas reales son materiales (poseen energía) y se ajustan a algunas leyes (causales, probabilísticas o ambas). Los procesos mentales son procesos cerebrales y las ideas en sí mismas (aunque sean verdaderas o útiles) son ficciones.

 

-b: Dinamismo. Todos los objetos materiales se hallan en flujo.

 

-c: Sistemismo. Toda cosa es un sistema o un componente (potencial o real) de un sistema.

 

-d: Emergentismo. Todo sistema tiene propiedades (sistémicas o emergentes) de las que los componentes individualmente carecen.

 

-Gnoseológica:

 

-a: Realismo científico. Es posible acceder al conocimiento de la realidad, al menos de forma parcial y gradual, y se supone que las teorías científicas representan partes o características del mundo real, aunque sea de forma imperfecta.

 

-b: Escepticismo moderado. El conocimiento científico es tanto falible como mejorable. Sin embargo, algunos hallazgos por ejemplo que existen átomos y campos- son adquisiciones firmes.

 

-c: Empirismo moderado. Todas las hipótesis fácticas se deben poder probar empíricamente, y tanto las pruebas positivas como las negativas son indicadores de su valor de verdad.

 

-d: Racionalismo moderado. El conocimiento progresa mediante conjeturas y razonamientos lógicos combinados con la experiencia.

 

-e: Cientificismo. Todo lo que es posible conocer y merece la pena saber, se conoce mejor de manera científica.

 

-Ética. Humanismo secular: la norma moral suprema es “persigue tu propio bienestar (biológico, mental y social) y el de los demás”. Esta máxima prescribe  que la investigación científica debe satisfacer tanto la necesidad por el conocimiento, curiosidad, como las necesidades humanas y esto, absteniéndose de hacer daños innecesarios.

 

-Sociológica. Socialismo epistémico: la labor científica, aunque “artesanal” es social,  por cuanto se ve unas veces estimulada y otras inhibida por compañeros de trabajo y por el orden social del momento, y el ámbito (provisional) no son las autoridades institucionales sino la comunidad de expertos. Cada una de las dichas comunidades prospera con los logros de sus miembros y eso facilita la detección y corrección de errores. Bunge advierte que estas anteriores ideas están muy lejos del pensamiento marxista, que defiende que las ideas son emitidas y eliminadas por la sociedad, como de la visión  constructivista- relativista de que los “hechos científicos” son construcciones sociales locales, como ya se ha revisado anteriormente) Bunge (2010).

 

Cabe recalcar que Bunge habla de una “metafísica” en su obra “Las pseudociencias, vaya timo” y no se puede soslayar que la metafísica a la que Bunge (2010) se refiere y que ha construido activamente, no se trata de cualquier metafísica sino una metafísica científica. Y lo es en dos sentidos.

 

Primero, porque es exacta, es decir, se sirve de las mismas herramientas formales que la ciencia: la modelización y el análisis lógico matemático. 

 

Segundo, porque muestra lo que se puede llamar una “preocupación” por el control empírico. Desde luego, este control empírico no se realiza siempre a través de la observación y el experimento, instrumentos propios de la ciencia, sino también mediante la continuidad o al menos la compatibilidad de las ideas metafísicas con los mejores resultados (teóricos y empíricos)  de la ciencia del momento. 

 

Esta decisión metodológica constituye uno de los rasgos más básicos e importantes de toda filosofía Bungeana: su cientificismo, es decir,  su supuesto de que (aunque diste de ser perfecto) el mejor modo de que disponemos para conocer el mundo es la investigación científica. Dicho sea de paso, este “mundo” de la oración anterior es para Bunge el mundo real “la realidad”, y no solo el de nuestras experiencias sensibles.

 

La respuesta de Bunge a los criterios de demarcación empiristas no es tanto la crítica que hace hacia los mismos, como sí lo es su incorporación a un sistema de criterios de demarcación que, como sugiere él, haríamos mejor en llamar “signos o indicadores de cientificidad”. Allí donde los neopositivistas y falsacionistas ponían todo el peso de la tarea demarcatoria en un único criterio, Bunge ofrece una batería de 12 indicadores de cientificidad (o pseudo cientificidad) pues  considera  necesario  incorporar  una multiplicidad de criterios, observa que por ejemplo, la falsabilidad sola, no es suficiente  pues de ello se seguiría que la falsabilidad directa no puede exigirse a las teorías más altamente teóricas y generales; argumentando que la cientificidad exige mucho más que la comprobabilidad (Bunge 2010).

 

Este sistema es consecuencia de su particular concepción de racionalidad científica o racionalidad total, es decir: ontológica, gnoseológica (especialmente metodológica) y axiológica (práctica y ética). Racionalidad que surge desde una perspectiva sistémica tanto del mundo como del modo de conocerlo.

 

Bunge recalca el hecho de que los empiristas lógicos se vieron obligados posteriormente a reformular su propio principio de verificabilidad (véase, Hempel 1950), pues advirtieron que era demasiado “fuerte” (al excluir enunciados que formaban parte de teorías científicas reconocidas) y también demasiado débil (pues permitía declarar verificables enunciados carentes de contenido empírico) y que por ello adoptaron el principio de comprobabilidad que hacía de la aplicación del criterio una  cuestión  de  grado. Manteniendo un estricto compromiso empirista.

 

Bunge critica lo anterior y observa que el propósito de tales criterios era simplemente establecer una demarcación entre ciencia y metafísica, mientras que él ha defendido que no se trata de ámbitos separados. Como ya se vio al comienzo de este apartado, Bunge defiende que toda ciencia debería situarse sobre un trasfondo de presupuestos filosóficos.  Por ello, su objeto es, más precisamente, el de delimitar lo científico de lo que no lo es, teniendo en cuenta estos principios presupuestarios. Y asimismo su rigor en la precisión del marco conceptual propio le permite desestimar la propuesta del empirismo lógico (positivismo lógico) por su fuerte fenomenismo (contrario según Bunge, al materialismo) y por su antirrealismo (pues el positivismo lógico no considera necesaria la hipótesis de un mundo real independiente de la experiencia) Bunge (2010).

 

En efecto, para él, la ciencia sugiere que todo lo que existe es un sistema o bien un componente de un sistema o está a punto de pasar a formar parte de un sistema. Y si el universo es un sistema, la mejor manera de abordar su  conocimiento  debería  ser  por fuerza, sistémica. De ahí que Bunge insista en que los  “objetos” complejos como la ciencia (y, por contraste, la pseudociencia) no pueden ser descritos mediante un único rasgo, sino que debemos prestar atención a sus diferentes aspectos.

 

Entrando en materia, los aspectos que propone a tener en cuenta para caracterizar un campo cognitivo son los siguientes: 

 

1.   Actitudes de la  comunidad  de  conocedores involucrados (C ) y actitudes hacia ellos de la sociedad en la que actúan (S);

2.   Características del conocimiento que ese campo sostiene o produce (K), de los objetos a los que refiere (D), así como de los problemas que plantean (P) y de los procedimientos generales que utilizan para intentar darles respuesta (M);

3.   Características de la filosofía en la que se funda su conocimiento y su proceder (G); objetivos que persiguen con ello (F).

 

Además de lo cual Bunge (2010) incluye la siguiente pregunta: ¿Cómo cambia el conocimiento del campo,  lento o rápidamente y en virtud de la investigación o de la fuerza, la autoridad, la mera controversia, etc?

 

Bunge (2010) sostiene que, en general, una investigación científica se suele iniciar escogiendo un ámbito de dominio de hechos (D); luego se construyen (o se dan por sentadas) algunas suposiciones generales (principalmente ontológicas) (G) sobre ellas, se reúne un corpus o marco teórico (C) con los conocimientos disponibles acerca de los elementos contenidos en (D),  se decide sobre el objetivo (O) y, en vista de lo anterior, se determina el método de estudio (M) adecuado para (D). Por tanto, un proyecto de investigación arbitrario (p) se esboza mediante el siguiente quinteto p= (D, G, C, O, M). La función de esta lista es mantener el hilo de lo fundamental al encuadrar definiciones posteriores.

 

La investigación científica de un ámbito de hechos (D) supone que éstos son materiales, legales y escrutables, a diferencia de lo inmaterial (particularmente de lo sobrenatural), que es ilegal o inescrutable; la investigación se basa en un cuerpo de hallazgos científicos válidos previos (C); asimismo se realiza con el objetivo principal de describir y explicar los hechos en cuestión (O) con ayuda del método  científico  seleccionado (M).

 

A su vez el método científico se puede describir brevemente mediante la siguiente secuencia: 

 

elección de conocimiento de fondo del (de los) problemas (s); 

solución provisional (por ejemplo, hipótesis o técnica  experimental);  

ejecución de pruebas empíricas (observaciones, mediciones o experimentos); 

evaluación de los resultados del ensayo; 

corrección eventual de pasos anteriores y 

nuevos problemas aportados por el resultado.

 

En este sentido y contrariamente a la extendida creencia o imaginario de que el método científico excluye la especulación, Bunge (2010) defiende que, en efecto,  el proceder científico no la excluye, solamente pone orden en la imaginación o procesos creativos del científico. Por ejemplo, menciona el autor, no basta con producir un ingenioso modelo matemático sobre algún dominio de hechos tal como suelen hacerlo los economistas matemáticos. La consistencia, la sofisticación y la belleza nunca son suficientes en el proceso de la investigación científica, el producto final de la cual debe ajustarse, supuestamente, a la realidad, es decir, ser verdadera en alguna medida. A los pseudocientíficos, por ejemplo, no se les acusa por ejercer su imaginación, pues esto también lo hacen los científicos auténticos, sino más bien dejarse arrastrar por ésta y no controlar hasta qué punto es útil en la investigación; una especulación desenfrenada está  en otras cosas como el arte, pero no en la ciencia.

 

El método científico eficaz también presupone que, en principio, cualquier cosa está sujeta de debate y que asimismo todo debate científico debe ser válido lógicamente, menciona Bunge, aun cuando no puede invocarse de forma explícita en principios o reglas lógicas. Este método encierra también dos ideas semánticas clave: el significado y la verdad. Los disparates no se pueden investigar; por lo tanto, no pueden ser declarados falsos (Bunge, 2010). Imaginemos calcular o medir el voltaje o potencial eléctrico de una batería de celular simple, empleando la definición de “energía fantasmal” (no la referente a la energía oscura) sino la utilizada por los “caza fantasma” de televisión.

 

Asimismo, el método científico no puede ponerse en práctica coherentemente en un vacío moral. Ahí interviene el Ethos de la ciencia básica. Lo que Robert K. Merton (citado en, Bunge, 2010) caracterizó como universalismo, altruismo, escepticismo organizado. Por último, en toda ciencia auténtica hay otras cuatro características distintivas:

 

Mutabilidad. Esto deriva del hecho de que no existe, ninguna ciencia “viva” sin investigación y ésta tiene el propósito de enriquecer y corregir el fondo de conocimientos. En suma, la ciencia se modifica progresivamente,  es  eminentemente  mutable.  Por  el contrario, las pseudociencia y sus ideologías de fondo o se hallan estancadas o cambian bajo la presión de grupos de poder o por efecto de disputas entre facciones (como ha sido el caso del psicoanálisis).

 

Compatibilidad con el grueso de los conocimientos precedentes. Podríamos definirlo de la siguiente manera: para que una idea merezca la atención de una comunidad científica, no puede ser ni tan obvia ni tan extravagante que rompa (aunque sea parcialmente) con los conocimientos previos. La compatibilidad con dichos conocimientos es necesaria, no solo para depurar las especulaciones, sino también para comprender la nueva idea y así poder evaluarla. Efectivamente la validez de una hipótesis o de un diseño experimental, está parcialmente determinada por su grado de afinidad con los conocimientos previos razonablemente  consolidados  (por  ejemplo,  se pone en cuestionamiento la telequinesia por el hecho de  violar  el  principio  de conservación de la energía).

 

Interactividad. La tercera condición, es decir la interacción parcial con al menos alguna otra ciencia o el alimentar otras áreas de investigación, deriva del hecho de que la clasificación de las ciencias genuinas es, de alguna manera, artificial. Por ejemplo, en lo relativo al estudio de la pérdida de memoria ¿se trata de psicología neurociencia o ambas cosas? Debido a estas superposiciones e interacciones parciales, el conjunto de todas las ciencias constituye un sistema.

 

Control por parte de la comunidad científica. Puede explicarse como que los investigadores no trabajan inmersos en un vacío social, sino que experimentan los estímulos e inhibiciones de sus compañeros de trabajo (aunque  no implique conocerlos personalmente). Toman prestados problemas y descubrimientos,  y piden que se les critique; y si tienen algo interesante que decir, reciben opiniones incluso si no se han solicitado. Tal interacción de la cooperación con la competencia es una mecánica de generación de problemas, control y difusión de los resultados; convierte la investigación científica en una empresa que se auto-cuestiona, auto-corrige y  auto-perpetúa. Esto hace del logro de la “verdad” algo menos característico de la ciencia que la capacidad y la voluntad para detectar y corregir errores (al fin y al cabo, el conocimiento ordinario- cotidiano, está repleto de trivialidades bien confirmadas que no han surgido de  la investigación científica) (Bunge, 2010).

 

Lo anterior mencionado hace referencia a las características más destacadas de lo que Bunge llama “ciencia auténtica”, sea ésta, natural, social o biosocial.

 

El método Thagard

 

En este marco se hace referencia a la inferencia a la mejor explicación (IMA), que se enfrenta a otras escuelas del pensamiento con sendos modelos como el nomológico-deductivo, el de relevancia estadística, el mecánico causal o el unificacionista. En “The  best explanation: Criteria for theory choice” (1978), Paul Thagard ofrece una propuesta que intenta formalizar los elementos de la IME. Su propuesta no es propiamente dicha para demarcar ciencia de no-ciencia, sus tres criterios están encaminados a la distinción entre buena ciencia y mala ciencia; es una propuesta sobre el progreso de la ciencia.

 

El análisis de los rasgos que a Thagard le parecen más importantes en una teoría científica se circunscriben a casos reales y conocidos en la historia de la ciencia tales como las teorías de Huygens, Newton, Lavoisier y Darwin. Uno de sus objetivos consiste en describir la manera en que los constructores de dichas teorías  han procedido. El segundo, es sostener que tales rasgos deben considerarse como criterios de elección de la mejor explicación entre teorías en competencia.

 

Como ya se ha mencionado y Thagard lo reitera, al principio de su artículo expresa que su pretensión no es ofrecer un conjunto de condiciones necesarias y suficientes para determinar la mejor explicación. Él ofrece tres criterios fundamentales que, en conjunto, deberían servir para inferir la calidad de la explicación científica, y son los siguientes: consiliencia, simplicidad y analogía (C, S, A) (Thagard, 1978).

 

1.   Principio de Consiliencia. Thagard explica que una teoría cumple con él si explica por lo menos dos clases de hechos, y que asimismo una teoría es más consiliente que otra si explica más clases de hechos que ésta. Para obtener una definición más precisa:

 

sea T una teoría que consiste en un conjunto de hipótesis (H1… Hm); sea A un conjunto de hipótesis auxiliares (A1… An); sea C un conjunto de condiciones aceptadas (C1… Cj); y sea F un conjunto de clases de hechos (F1… Fk). Entonces, T es consiliente si y sólo si T, en unión con A y C, explican los elementos de Fi cuya cláusula adicional sería (que el número de hechos k  sea mayor o igual a 2, es decir K ≥ 2 Thagard (1978). En otras palabras, T es consiliente si y sólo si, la conjunción de T, A y C explica F.

 

Que la definición tenga en cuenta elementos asociados a una teoría T,  como A, C y F, es un indicador de las relaciones que un grupo de hipótesis (la teoría) mantiene con un conjunto de enunciados asociados (mejor dicho, hipótesis auxiliares), sin dejar a un lado las condiciones que se presuponen como base de la teoría.

 

Explicar hechos es, esencialmente, un objetivo primordial de las teorías científicas, por lo que se puede fácilmente coincidir con Thagard en hacer de la consiliencia un criterio de la IME, considerando el éxito de las teorías que con el paso del tiempo han servido para explicar fenómenos distintos de aquellos para los que fueron pensadas, extiende su definición inicial de consiliencia, pues también propone una visión no solo estática sino dinámica de la consiliencia.

 

Esta nueva consideración le da relevancia al carácter provisional que parece distinguir  a buena parte de las teorías científicas, y permite incorporar explicaciones novedosas en una teoría sin necesidad de realizar cambios bruscos, drásticos o ningún cambio en ella. Por otro lado, dar cuenta de esto es privilegio del investigador que estudia las teorías históricas desde el presente. En efecto, hasta aquí el criterio de consiliencia parece ser adecuado para evaluar y describir teorías ya aceptadas. En caso de que una teoría adicione nuevos hechos al conjunto de los que explica sin que esto implique modificar su cuerpo de hipótesis, pues las que se tiene ya son suficientes para dar cuenta de éstos hechos, Thagard habla de consiliencia dinámica conservadora, pero si se realiza un cambio drástico en alguna hipótesis auxiliar, habla de consiliencia dinámica radical.

 

Con estas distinciones, Thagard intenta ampliar el rango de alcance de la noción central de su triple criterio. Busca también preservarlo de manipulaciones: al ver que sería posible atribuir consiliencia a alguna teoría mediante el recurso de añadir enunciados (hipótesis) a conveniencia, propone ahora una restricción: para ser consiliente, una teoría debe especificar los hechos que no puede explicar. Pero esta restricción podría evitarse mencionando hechos que pertenecen a campos totalmente diferentes. Por ello propone moderar los enunciados (hipótesis) de una teoría por medio del segundo elemento de su triple criterio para IME: la simplicidad, que será el contrapeso y la más importante restricción a la consiliencia (Reyes, s.f).

 

2.   Criterio de simplicidad. Para Thagard la simplicidad está íntimamente  relacionada con la explicación científica. Específicamente se relaciona con el conjunto de hipótesis auxiliares que el evaluador de una teoría necesita examinar. 

 

“La explicación de los hechos F por una teoría T requiere un conjunto de condiciones dadas C; y, asimismo, un conjunto de hipótesis auxiliares A. C no es problemático, ya que se asume que todos los miembros de C son aceptados independientemente de T o F.  Pero A sí requiere un análisis minucioso” Thagard (1978,  pág. 86). Hace falta en este análisis también, preguntar por la simplicidad de A. La simplicidad se nos dice Thagard “una función del tamaño y naturaleza del conjunto A necesitado por una teoría T para explicar hechos F” (Thagard, 1978).

 

Decidir cuáles enunciados pertenecen al conjunto de hipótesis auxiliares y cuáles a la teoría es una cuestión que Thagard resuelve de un modo práctico: la comunidad científica considera como parte de una teoría sólo a los  enunciados que aparecen más frecuentemente en las explicaciones. Hecha la distinción, la razón por la que la simplicidad resulta siendo una restricción sobre la consiliencia, al evaluar o construir una teoría, es que podría ser juez sobre el número y calidad de asunciones con escasa  explicación (utilizadas para explicar sólo algún aspecto de algún hecho, por ejemplo) que una teoría se puede permitir si quiere ser cierta.  En últimas, la simplicidad evitaría también la proliferación de hipótesis ad hoc.

 

Dadas dos teorías T1 y T2, si deseamos evaluar cuál es más  “simple”  debemos comparar el conjunto de hipótesis auxiliares asociadas a cada una, teniendo en cuenta las consideraciones anteriormente descritas, digamos AT1 y AT2. Examinando con cuidado, cuantitativa y cualitativamente las asunciones introducidas como hipótesis auxiliares por cada teoría en competencia, sin perder de vista la calidad, sencillez, poder explicativo, plausibilidad, etc, de las hipótesis. Agregando que lo más importante no es el número de postulados en AT1  o AT2,  sino que cada postulado sea usado para dar cuenta de una clase  de hecho distinto.

 

Ahora bien, Thagard ofrece un tercer criterio para completar su modelo de IME. Él escribe: “Las teorías no deben alcanzar consiliencia a expensas de  la  simplicidad,  por medio de hipótesis auxiliares. La inferencia a la mejor explicación es una inferencia que mejor satisface los criterios de consiliencia y simplicidad, así como un tercero: analogía” (Thagard, 1978, pág. 89).

 

3.   Criterio de analogía. El aporte importante de la analogía a las teorías es que mejora sus explicaciones, tanto porque resalta rasgos que comparte con otras teorías sujeta a evaluación, o con otras ya aceptadas, como porque contribuye a fortalecer la opinión de que ciertas hipótesis son verdaderas. Los argumentos de analogía, tal como Thagard lo expone se pueden representar de la siguiente manera:

 

A es P, Q, R, S. B es P, Q, R

B es S

 

Según (Reyes, S.F) es fácil notar que esta forma de obtener una conclusión es arriesgada; pues en taxonomía, por ejemplo, las afinidades y parecidos exteriores entre individuos no bastan para atribuirles cualidades en común suficientes como para clasificarlos en una misma especie; los hongos comparten características morfológicas con plantas y animales, pero sus diferencias obligan a agruparlos en distintos taxones. Por su parte Thagard explica del esquema anterior que si hubiera más propiedades que A y B no comparten (por ejemplo, T y U), sería ilegitimo atribuir S a B.  Además, podemos estar ante dos cosas que tomamos por “iguales” solo porque no sabemos lo suficiente. Entonces, hay cosas que, aunque superficialmente parezcan similares, tienen una estructura molecular y atómica distinta. Por esas razones el esquema anterior no representaría adecuadamente el uso de la analogía en la argumentación científica.

 

Thagard (1978) propone una mejor caracterización más adecuada sería una que incluyera el concepto de explicación. En ese sentido, si sabemos que el hecho de que A tenga S explica por qué tiene P, Q y R, podríamos decir que “B tiene S” se trata de una “promisoria explicación” de por qué B tiene P,  Q y R. Es decir, A posee P, Q y R en virtud de que posee S; es decir se fortalece la teoría que sirve como base de comparación. La analogía también puede sugerir explicaciones, por ejemplo, las hay que entre los fenómenos del sonido y los de la luz, explica Thagard, facilitó el camino de la teoría ondulatoria de la luz. Así una característica adicional de la analogía sería facilitar el desarrollo de nuevas teorías; además, la familiaridad con teorías anteriores o contemporáneas, sin ser esencial, ayudaría a comprender las actuales.

 

Con esto se termina la lista de criterios de Thagard, que establecen a una teoría como la mejor explicación. Vale aclarar que él mismo advierte que la intención de su propuesta es integrar los elementos más relevantes para juzgar la calidad y la aceptabilidad de las teorías sujetas a evaluación. Vale también advertir que el propio Thagard encuentra problemáticas a solucionar o que dejan abierto el debate al respecto, con su método, halla problemática, por ejemplo, la relación entre consiliencia y simplicidad. De la consiliencia nos ha ofrecido cuatro versiones: estática, dinámica, conservadora y radical; sin embargo, podemos observar que cada una corresponde a un momento o aspecto del desarrollo de la teoría. Todas  sirven para describir sus modificaciones y sus cambios en cuanto al número   de hipótesis originales y las añadidas y los hechos que éstas explican.

 

Podría considerarse en ese orden de ideas que cualquier teoría actual puede considerarse estática y conservadora, pero potencialmente dinámica y radical; sólo el tiempo permitirá registrar sus cambios. Entre otras observaciones. A pesar de todo ello este modelo tiene una aplicación idónea en la descripción y ponderación de las teorías científicas desde el punto de vista de la historia de la ciencia. Reconocer una estrecha relación entre sus tres criterios nos entrega un interesante y detallado cuadro de la manera   en que las teorías se conforman y cambian con el tiempo, en su afán de responder adecuadamente a los hechos (Reyes, S.F).

 

(El término consiliencia, proviene del inglés; se usa en el entorno de investigación científica, pero no ha sido incorporado en la DRAE. Thagard rastrea el término hasta W. Whewell, quien lo usó como una medida de cuánto explica una teoría)

 

La propuesta “anti-criterial” de Larry Laudan

 

Dicho esto, antes de exponer los criterios demarcatorios, cabe una salvedad teórica ante la necesidad y utilidad de los mismos, una de ellas y la más prominente es la de Larry Laudan. Hasta comienzos de los años 80 el debate sobre el problema de  demarcación había consistido en establecer el criterio específico que separa la ciencia de la no ciencia. Sin embargo esto cambió cuando en 1983 Larry Laudan escribió un ensayo: “The Demise of the Demarcation Problem” donde declara “fallecido” el problema de la demarcación; y esboza su propuesta, considerablemente pragmatista. A pesar de su objeción ante los criterios demarcatorios, Laudan no figura como un posmodernista ni mucho menos. Laudan es crítico también de posturas relativistas  o  de  extremo escepticismo. Si bien, como ya se ha mencionado, no es su preocupación establecer criterios de demarcación, sino reivindicar el valor racional de la empresa científica y combatir el escepticismo que ronda sobre ella.

 

Laudan (1986) argumenta básicamente que no es posible establecer criterios de demarcación entre ciencia, no ciencia y (pseudociencia); ya que la actividad científica es una actividad humana racional que pretende dotar al mundo de sentido y según esto, no se puede hablar de rasgo epistémico, sustantivo o metodológico que sea propio de toda ciencia. Él, a pesar de esto argumenta a favor de la ciencia como una institución privilegiada y progresiva.

 

“Nuestro propósito debería ser distinguir las pretensiones del conocimiento bien contrastadas y fiables de las fraudulentas (…), nuestra preocupación central debería ser distinguir las teorías con un alcance amplio y demostrable en la resolución de problemas, de las teorías que no tienen esa propiedad sin considerar si las teorías en cuestión caen dentro del ámbito de la física, la teoría literaria, la filosofía o el sentido común” (Laudan, 1986). 

 

Así introduce lo que él llama las “tradiciones investigadoras” en donde propone superar una dicotomía entre ciencia y no ciencia y plantear las diferencias en sentido de grado y no de tipo. Gradación que será determinada por ¿qué tan efectiva es la disciplina en la resolución de problemas? idea que puede decirse tiene similitud con “los programas de investigación científica” de Lakatos.

 

Viéndolo de esta forma, es posible inferir que, aunque niegue la existencia de criterios para demarcar entre lo que es y no es científico, igualmente propone un criterio que al menos no es categorial pero sí lo es para determinar el grado de racionalidad y  especialmente la progresividad y otras características, entre las disciplinas. Propone así un modelo de racionalidad que según él es potencialmente más adecuado.

 

Este modelo requiere principalmente el abandono de nociones tales como confirmación, corroboración y contenido explícito. Desde su visión pragmática, propone un modelo de ciencia de objetivos alcanzables para confirmar de una forma, según él, más adecuada, el progreso de la ciencia. “Es que el objetivo de la ciencia consiste en obtener teorías con una elevada efectividad en la resolución de problemas”. (Laudan, 1986).

 

Reivindicando el problema de la demarcación

 

Ese supuesto “fracaso” del problema de la demarcación en Laudan, ha sido notoriamente debatido en el entorno académico de la filosofía por autores varios como James Ladyman, Maarten Boudry, Sven Hansson y en el que nos detendremos en pequeña parte del compilatorio de argumentos a favor de la reivindicación del problema de la demarcación publicado en 2013 y editado por Pigliucci y Boudry.

 

Según Mahner (2013) la demarcación ha resultado un asunto complicado por una serie de razones variopintas:

 

La primera es que no sólo debe existir la distinción entre ciencia y  pseudociencia, sino también la distinción entre ciencia y no-ciencia en general. No todo lo que es no-científico, es necesariamente pseudocientífico, el conocimiento ordinario, por ejemplo, así como las artes y las humanidades, no son ciencias, pero tampoco son pseudociencias.  

 

Segundo, hay también una distinción entre ciencia mala y ciencia buena.  Un científico que sigue un protocolo experimental descuidado y deficiente o que incluso omite algunos datos de su informe para obtener gráficos y resultados (más suaves) pisa la línea del fraude científico, éste es entonces un mal científico y utilizó un mal proceder, a la ciencia en general no se le puede culpar por los errores de este tipo de grupos de investigación. Aún así, ese alterador de datos fraudulento no se considera pseudocientífico tampoco.

 

Tercero, está el problema de la protociencia y la heterodoxia. ¿Bajo qué condiciones un campo joven de investigación como una protociencia no es lo mismo que una pseudociencia? por definición una protociencia no posee todas las características de una ciencia completamente establecida ¿cómo evaluamos su estado? Por ejemplo, los jóvenes y polémicos campos de la psicología evolutiva y las protociencias meméticas. ¿Cuándo es exactamente esto, una teoría alternativa y tentativa en potencia de hacer parte de un cuerpo de conocimiento científico, y cuándo debe  considerarse  una  pieza  de  pseudociencia?

 

Un cuarto problema sería el del debate sobre la unidad y la no unidad en la ciencia. Algunos filósofos han argumentado que el tema, los métodos y los enfoques de diversos campos científicos son tan diferentes que es difícil defender la idea de unidad en la ciencia. En efecto un neopositivista habría defendido tal unidad en el sentido de que todas las declaraciones científicas podrían y deberían reducirse a proposiciones fisicalistas.

 

Todas estas distinciones son importantes, pues la heterodoxia debe ser acogida como un estimulante de debate crítico y de investigación y uno de los caminos importantes y más útiles a seguir para ello es acudiendo a los criterios de demarcación (Mahner, 2013).

 

Las propuestas monofactoriales de Kuhn, Popper, Lakatos y cualquier otro,  por separado fracasan en su intento de definir en forma precisa estos conceptos. Así es como se suscita la reflexión de que si lo que se busca es establecer  de la  forma  más  precisa posible: qué es la pseudociencia y la no-ciencia, lo más recomendable es  adoptar un enfoque multicriterial, y por supuesto, no abandonar el debate sobre el tema. Uno de los enfoques multicriteriales que se pueden abordar, y que también ha inspirado a otros (como los presentados por Agassi y Mahner) es el de Mario Bunge.

 

Aunque el reduccionismo fisicalista sigue teniendo un enorme peso, sin embargo, existe otra concepción alternativa de la unidad de la ciencia: el hecho de que las ciencias proponen una visión coherente y unificada del mundo, su consiliencia para crear un marco unificado de conocimiento. Esto es, su carácter de red, hacen reconsiderar la unidad en la ciencia Reisch y Wilson (citados en Mahner, 2013). En general los filósofos que creen en esa concepción de unidad de la ciencia están más inclinados y familiarizados hacia la demarcación que aquellos que defienden su desunión. El problema se refiere a las unidades de demarcación. Los diversos esfuerzos de la demarcación se han concentrado en aspectos y niveles de ciencia: declaraciones, problemas, métodos, teorías, prácticas secuencias históricas de teorías y/o prácticas (es decir, programas de investigación en el sentido de Lakatos) y campos del conocimiento.

 

Por ejemplo, el falsacionismo de Popper es un enfoque que se refiere a declaraciones, ya que consiste esencialmente en la aplicación del Modus Tollens; Lakatos se refiere a  teorías y programas de investigación; Kuhn (el de 1970) se centra más en problemas y la capacidad de resolución de problemas de las teorías. Kitcher y Lugg (citados en, Mahner, 2013) examinan teorías y prácticas. Por otro lado, Bunge y Thagard se refieren a campos enteros de conocimiento; y Wilson (citados en, Mahner, 2013) analiza las diferencias en el razonamiento de los científicos y pseudocientíficos, es decir, su diferente lógica y metodología.

 

Como se puede ver, no hay unanimidad en cuanto a una sola unidad óptima de demarcación, no es viable proponer un solo criterio o un pequeño número de criterios por esta razón, el uso de un solo criterio está condenado a ser insatisfactorio teniendo  en cuenta la variedad de posibles unidades de demarcación. Por ejemplo, el falsacionismo es un solo criterio, como el criterio de Kuhn para la solución de problemas, así como el de Lakatos en la progresividad de los programas de investigación, otros a autores admiten condiciones como “fertilidad”, testabilidad independiente de hipótesis auxiliares, preocupación por la confirmación o des confirmación empírica, la aplicación del método científico, y así sucesivamente Mahner (2013). De la misma manera se enuncian otros asuntos similares con respecto a este problema los cuales detalla el autor en el resto del  texto. Lo más importante, para el desarrollo de esta idea que se quiere, es lo que viene a continuación.

 

¿La demarcación está muerta?

 

Aunque el famoso trabajo de Laudan contribuyó al tema de la demarcación,  no ha producido un cambio con respecto al estatus institucional de la filosofía de la ciencia. Pues sí según Laudan, todo lo que importa es la distinción entre lo “epistémicamente justificado y las creencias injustificadas”, se supone que como consecuencia la filosofía de la ciencia se habría disuelto como una disciplina (es decir, casi 30 años después de la publicación del artículo de Laudan) y no lo ha hecho.   La historia de la filosofía de la ciencia en las academias ilustra, al menos, que el pronunciamiento de Laudan acerca de la “muerte” de la demarcación no ha sido aceptado con todas sus consecuencias naturales. Parece, por lo tanto, que la ciencia implica algo especial a lo que no queremos renunciar  en cuanto a la demarcación de su conocimiento (Mahner, 2013).

 

Otro problema de la crítica de Laudan es que se apoya en criterios ahistóricos; pues habla de ciencia a lo largo de la historia, de Aristóteles a la ciencia moderna, como si la antigua preciencia estuviera a la altura de la madurez de la ciencia contemporánea, menciona Mahner. Después de todo la ciencia moderna comenzó hace sólo cuatrocientos años aproximadamente y se ha desarrollado bastante desde los tiempos de Galileo y Newton, y puede ser que cierta creencia que era perfectamente científica o como diría Laudan (epistémicamente fiable en el 1680), hoy ya no sería tal cosa gracias a la demarcación progresiva planteada a través de la historia de la epistemología Mahner (2013).

 

En última instancia, aunque la distinción entre conocimientos fiables o epistémicamente válidos y poco fiables sea una instancia considerable,  sigue  siendo legítimo intentar delimitar una forma más restringida de la producción del conocimiento científico de otras maneras de adquisición de conocimiento, para lo cual se requiere de la estrategia demarcativa. Después de todo la ciencia y la tecnología aún se consideran epistemológicamente privilegiadas debido a su sistemático y riguroso enfoque como resultado de lo cual producen los más confiables conocimientos Mahner (2013).

 

Según Mahner (2013) La ciencia y la tecnología no son sólo importantes por razones económicas, sino también porque como ciudadanos de una sociedad en condiciones de civilización y educación deberíamos poder tomar decisiones científicamente  informadas en la vida personal de cada sujeto, en sus roles para la sociedad, la política y la cultura. Todos nos enfrentamos a preguntas que requieren la distinción entre ciencia y no ciencia.

 

“-¿Deberíamos confiar nuestra propia salud, así como la de otros  a  métodos diagnósticos o terapéuticos que no sean científicamente válidos?

 

-¿Si no vale ninguna distinción entre la ciencia y pseudociencia y lo que no es ciencia o si se toma en serio la “validez igual” deberían los seguros de salud pública cubrir curas mágicas como la “medicina cuántica” o no comprobada su efectividad lo suficiente como la homeopatía o el tacto terapéutico, métodos que no son científicamente válidos?

 

-¿Debería emplearse a los “dowers” para buscar personas enterradas por avalanchas o edificios derrumbados?

 

-¿Debería la evidencia solicitada en juicios judiciales incluir análisis de carácter astrológico o testimonios de médiums?

 

-¿Debería el dinero de los contribuyentes invertirse en la financiación de la “investigación” pseudocientífica, o es mejor la financiación  de  investigaciones  científicas?” (Mahner, 2013. Pag, 48).

 

Las preguntas anteriores no son sólo cuestiones de política pública, sino también éticas y legales, ya que pueden implicar fraude o incluso homicidio negligente, por ejemplo, si un paciente muere porque fue tratado con el remedio de un curandero no probado anteriormente ni desarrollado a partir de ningún tipo de investigación.

 

Nosotros podemos hacer caso a la necesidad de distinguir la ciencia de la pseudociencia. La necesidad de reivindicar la reflexión y utilidad de los criterios de demarcación también puede servir para responder a problemas planteados en la educación científica. ¿Por qué enseñar astronomía en lugar de la astrología? ¿Por qué la física en lugar de la “física cuántica” de la que hablan ahora los místicos rosacruces? ¿Por qué la historia estándar y la arqueología en lugar de la teoría de los astronautas de Däniken? En general, ¿por qué deberíamos enseñar ciencias en vez de pseudociencias? Aún más generalmente, ¿cómo podemos informar sobre la naturaleza de la ciencia-uno de los temas centrales de la educación científica cuando incluso el filósofo de la ciencia (la de Laudan y similares) ha renunciado a caracterizar la naturaleza de la  ciencia?  pregunta  Mahner (2013).

 

Asimismo, Pigliucci (2013) argumenta contra Laudan que las justificaciones epistémicas que se acompañan de revisiones específicas individuales y no de esfuerzos generales, resulta ser bastante impráctico y muy restrictivo. Es decir, cuando una disciplina ha demostrado a lo largo del tiempo que carece de sentido y utilidad,  demostrando la incapacidad de progresar en dicha área, parece que el tiempo mismo justifica la razón de archivar esta disciplina para dejarla de lado, sin concentrarse en nuevos esfuerzos o intentos de investigación dentro de ésta (Pigliucci utiliza a la astrología como un ejemplo de este tipo de disciplinas). En cambio, dentro de una disciplina científica que ha demostrado su éxito y dinámica, el consejo de analizar cada reclamación tiene sentido, precisamente porque la ciencia ha establecido métodos y un cuerpo de conocimientos contra lo cual la justificación epistémica de cualquier nuevo alegato puede evaluarse razonablemente. De esta forma, etiquetar algo de pseudociencia ayuda a  identificar las disciplinas en las que es inútil llevar a cabo este tipo de ejercicios y que además evita invertir tiempo y/o dinero en algo que no tiene el potencial o la probabilidad de validez o éxito.

 

Acerca del “fracaso” filosófico de la demarcación, la historia ha demostrado que se tiene un progreso y no un fracaso: si bien Popper pudo haberse “equivocado” al creer que había resuelto el problema de la inducción y demarcación, lo cierto es que la propuesta popperiana que sirvió de reemplazo al razonamiento inductivo por el deductivo resultó ser una “buena jugada” que tuvo que ser analizada y debatida antes de considerar propuestas más sofisticadas (puede objetarse lo de la inducción, pues la inducción en ciencia tiene un rol, en ese sentido podría cuestionarse que “reemplazar” sea una “buena jugada”), sin embargo “sí podría decirse que las ideas de Popper permitieron analizar otros aspectos de la cuestión y mejorar las propuestas previas y considerar unas más sofisticadas” Gerardo Primero (comunicación personal, 14 de Abril, 2017).

 

La búsqueda conjunta de criterios para definir la ciencia y la pseudociencia buscando entender estas actividades humanas representa un avance, no un retrocesoPigliucci agrega que el problema de demarcación posee gran relevancia ya que distinguir ciencia y pseudociencia trae consigo consecuencias de tipo personal, intelectual y de tipo monetario. Las distinciones en la ciencia marcan la diferencia entre la creación de políticas públicas que regulen las emisiones de efecto invernadero y las que hacen caso omiso a las advertencias de cambio climático; se marca también la diferencia entre establecer la necesidad de conductas que benefician a la sociedad entera como el vacunarse y los actos que surgen en contra del conocimiento bien sustentado, como los que surgen de creer que las vacunas causan autismo entre otras cosas; marca la diferencia entre aceptar un diagnóstico y tratamiento basado en la evidencia, y la utilización de píldoras compuestas de simple agua y azúcar. Esto en un encuadre de beneficios/perjuicios (Pigliucci 2013).

 

Consideraciones sobre una demarcación factible

 

El primer paso hacia una demarcación factible es elegir una unidad de análisis más completa: campos más amplios de conocimiento, o campos epistémicos (Mario Bunge citado en, Mahner, 2013). A grandes rasgos, un campo epistémico es un grupo de sujetos, teorías y prácticas, con un objetivo de algún tipo. Tanto nosotros, la astronomía y la astrología o la física y la teología son campos epistémicos. Asimismo, tanto la biología en general como la ecología en particular son campos epistémicos. Los primeros ejemplos muestran que el conocimiento adquirido en un campo epistémico no necesita ser ni factual ni verdadero: podemos adquirir conocimiento sobre las entidades puramente ficcionales y no reales, y nuestro conocimiento puede ser falso o ilusorio. El segundo ejemplo ilustra que los campos epistémicos son más o menos inclusivos: forman jerarquías.

 

La elección de campos de conocimiento como punto de partida nos permite muchas facetas de la ciencia, a saber, que es a la vez un cuerpo de conocimiento y un sistema social de personas incluyendo sus actividades colectivas. También tiene en cuenta que la ciencia es algo que no llegó a existir de forma momentánea y sólo gracias a la investigación, ya que se ha desarrollado durante varios siglos y a partir de una mezcla, progresión y superación de conocimiento ordinario, metafísica, e investigación no científica. En otras palabras, nos permite considerar no sólo la filosofía de la ciencia, sino también la historia, la sociología y la psicología de la ciencia Mahner (2013).

 

Además, el estudio de campos epistémicos requiere también que analicemos sus componentes. De este modo, las unidades de menor nivel,  tales  como declaraciones, teorías, métodos y así sucesivamente, se pueden incluir como componentes necesarios a tomar en cuenta. En vista de este análisis, no es plausible que podamos establecer la demarcación con un único criterio o uno con pocas condiciones para determinar el estatus científico de un campo de conocimiento (Bunge, 2010).

 

Mahner agrega que esto puede funcionar en algunos casos, pero es probable que nos falle en otros. Por esta razón, es recomendable para hacerlo más factible disponer de una lista de criterios de demarcación tan completa como sea posible: toda una batería de Indicadores. Para ilustrar este punto, veamos una definición reciente de “pseudociencia” por Hansson, (2008). Define una proposición como pseudo-científica si y sólo si satisface las tres condiciones siguientes: 

 

(1) se refiere a una cuestión dentro del dominio de la ciencia;

(2) no está epistémicamente justificada (es decir, no nos informa de por qué las teorías y prácticas de ese campo determinado producen al menos un conocimiento confiable o incluso verdadero  


(3) es parte de una doctrina cuyas proposiciones principales tratan de crear la impresión de que está epistémicamente justificadas. 

 

Esta definición ciertamente es para referencia rápida, trata únicamente de los componentes de nivel más bajo, a saber, las proposiciones.

 

Según Mahner (2013) una demarcación propiamente dicha implica dar información del estado epistémico de un campo dado: se espera que nos informe por qué las teorías y prácticas de un campo determinado producen al menos un  conocimiento  confiable  o incluso verdadero, mientras que algunos otros campos no lo hacen, para justificar tal evaluación se necesitan criterios normativos, y también los hay descriptivos.  Por ejemplo, la falsabilidad se considera un criterio normativo (lógico- metodológico). A simple vista pareciera que los criterios normativos son los más relevantes para la demarcación epistemológica. Pero una mirada más cercana a la actividad colectiva de las comunidades de investigación, puede dar información sobre una característica importante en la ciencia,  por lo que los criterios descriptivos también pueden funcionar en el proceso.

 

La radiestesia es un campo que no tiene comunidad de investigación. La mayoría de Downers tienen sus propias teorías privadas sobre las presuntas leyes y mecanismos de la radiestesia, de lo que puede y no puede lograrse por ésta. A pesar de algunos problemas menores y sobre todo lingüísticos y no conceptuales, estas teorías son mutuamente incompatibles, no hay una teoría global compartida por  la  comunidad  de  downers  o ningún método de evaluación global de teorías y metodologías, ningún  mecanismo  colectivo de corrección de errores, y así, sucesivamente. Así que la falta de una comunidad de investigación es un claro indicador de que lo que estas personas hacen no es ciencia. En consecuencia, puede resultar que una característica social como ésta, tenga un componente normativo también, sin embargo, los indicadores científicos no deben a priori, limitarse únicamente a criterios normativos.

 

Mahner (2013) propone que existe una muy amplia serie de indicadores, como los siguientes que se pueden tener en cuenta para la distinción correspondiente.

 

-¿Constituyen una comunidad de investigación, o son sólo una colección Individuos haciendo su propia cosa?

 

-¿Está el grupo dado de personas libre para investigar y publicar lo que quieren, o son censurados por la ideología reinante de la sociedad en la que viven?

 

-¿El dominio del estudio consiste en objetos  concretos,  o contiene abstractas “energías” no comprobadas o “vibraciones”, si no fantasmas u otras entidades espirituales?

 

-¿Cuáles son los supuestos de fondo filosófico del campo dado?

 

-¿Admite también entidades o acontecimientos sobrenaturales?

 

Tradicionalmente, un gran número de indicadores se encuentran en la lógica y metodología adoptada por un campo determinado:

 

-¿Acepta los cánones de razonamiento válido y racional?

 

-¿Son importantes los principios de no-circulación y no-contradicción?

 

-¿Admite falibilismo o promueve el dogmatismo?

 

-¿Cuán importantes son la testabilidad y la crítica?

 

-¿Qué tan importante es el apoyo probatorio?

 

-¿Se puede probar independientemente la fiabilidad de sus métodos o técnicas?

 

-¿Tienen las teorías poder explicativo o predictivo genuino, o ambos?

 

-¿Son fructíferas las teorías?

 

-¿Son reproducibles los datos?

 

-¿Existen mecanismos de eliminación de errores?

 

-¿El campo toma prestado conocimiento y métodos de campos adyacentes?

 

-¿A su vez informa y enriquece campos vecinos, o está aislado?

 

-¿Los problemas abordados en el campo surgen naturalmente de la investigación o la construcción teórica, o son los problemas sacados de un sombrero?

 

Esta lista puede ampliarse más, pero basta con estos ejemplos. La cantidad de posibles indicadores, tanto descriptivos como normativos, muestra que es improbable que cada uno de ellos se cumpla en todos los casos de demarcación. La parapsicología moderna genera mucha Investigación, algunas de los cuales incluso utilizan métodos estadísticos actualizados, pero ¿Es suficiente para considerarlo una ciencia? Por lo tanto, los indicadores mencionados, no constituyen un conjunto de condiciones individualmente necesarias y conjuntamente suficientes. La condición de racionalidad, por ejemplo, es ciertamente necesaria en un campo para contar como una ciencia, pero no es suficiente porque existen otras empresas humanas racionales. Si tenemos que renunciar a la meta de encontrar un conjunto de criterios suficientes y necesarios de demarcación científica. ¿Cómo podemos realizar una demarcación entonces?

 

Mahner (2013) ofrece una respuesta concluyendo que el resultado de análisis no debe ser por medio de criterios conjuntamente suficientes e individualmente necesarios, el resultado de tal examen sería una especie de “demarcación débil” en el sentido de que es flexible, incluyendo el uso de términos más flexibles como delimitación, delineación o incluso solo distinción o simplemente, redefinir el concepto de “demarcación”  clásico, mejor dicho aceptando  un cambio conceptual, tal como acá se propone, esto es: que se   debe evaluar entre ciencia y no- ciencia con herramientas como perfiles de criterios y con ello tener en cuenta indicadores particulares para campos específicos; en lugar de realizar una evaluación que bajo los mismos criterios y cumplimiento de todos los indicadores distinga igualmente para todos los casos entre ciencia y no ciencia.

 

Dicho perfil se basaría en un análisis más exhaustivo, implicando que las razones que damos para clasificar un campo dado como pseudociencia, pueden ser bastante diferentes   en otro. Por ejemplo, los criterios por lo que rechazamos la teoría y la práctica de la radiestesia como pseudocientífica pueden ser diferentes de los criterios por los que rechazamos el creacionismo. Se debe abandonar la idea de que un pequeño conjunto de criterios de demarcación se aplica a todos los campos del conocimiento por igual, permitiéndonos llegar a una categorización más detallada, compleja y racionalmente fundamentada. Por lo tanto, tampoco debemos abandonar “a sangre fría” la idea de la utilidad y necesidad de los criterios como mal propone Laudan, solamente  que  su  necesidad no es cumplir una única lista global de criterios que deben puntuar positivo punto a punto necesaria y suficientemente, todas las áreas del conocimiento por igual, sino por clústeres específicos para cada uno de los casos dados.

 

Conclusión

 

Después de todo lo expuesto, puede afirmarse que, a pesar de las objeciones, como las de Laudan, y las dificultades de justificación por parte de los mismos autores simpatizantes con el problema de la demarcación; se puede estar de acuerdo en que aún tiene una clara importancia, ya sea para un ámbito puramente académico concerniente a la epistemología, o como los anteriores autores mencionados han querido hacerlo ver, un asunto que nos concierne en mayor o menor medida teórica a todos; ya sea para tomar decisiones cotidianas simples, como también de carácter político-público y de hecho, también deontológico.  Esta rama de la epistemología aborda entonces la posibilidad de tales evaluaciones exhaustivas; en parte, según algunos autores como Mario Bunge, con el fin de evitar en la mayor medida posible las implicaciones epistemológicas y prácticas de las formas más fuertes de relativismo epistémico-gnoseológico. Un proyecto científico no tendría valor, en su representación, intervención o desarrollo tecnológico, si resultase cierto que no existen maneras de diferenciar entre formas de conocimiento, entre estrategias de intervención metodológica; si todo dependiera de “qué juego prefiero para conocer el mundo y cualquiera resultase pues, igualmente valido” seguramente no tendría ya sentido si quiera preguntarse por la validez epistemológica y metodológica de las ciencias, solo esperar que cualquier idea o elucubración de cualquier grupo o persona lograse aportar las mejores disposiciones para el progreso.

 

Profundizando un poco lo anterior, más nos vale de hecho, que el conocimiento científico sea privilegiado con respecto a otras formas de conocimiento; es decir, argumentar en contra de la creencia de que no hay formas de conocer el mundo radicalmente distintas entre sí o ni siquiera distintas, y que son igualmente “válidas” “Equal Validity”, de las cuales la ciencia no sería sino una más entre otras. Pues si la ciencia no fuera privilegiada, acaso no tendríamos más remedio que conceder tanta credibilidad a la arqueología como al creacionismo Zuñi, o a la teoría de la evolución como al creacionismo cristiano; o en el caso de la psicología, al horóscopo como a por ejemplo la teoría factorial de la personalidad de Cattell, la de Allport o a la aplicación y evaluación de resultados de un test MMPI 2. Pues sí el vasto número de académicos o simples opiniones populares que en general apoyan el tipo de tesis contrarias, tuviesen razón, y si con ello tuviesen razón en alimentar una desconfianza radical hacia la ciencia, no sólo estaríamos cometiendo un error filosófico pertinente para un reducido número de especialistas de la teoría del conocimiento; peor aún, nos habríamos equivocado de plano en la identificación de los principios que deben regir la organización social y muchos otros asuntos importantes.

 

Esa distinción entre ciencia y no-ciencia o entre mala ciencia-buena ciencia, sea de forma laxa como proponen Mahner y Pigliucci o ya sea incluso, (si llegase a ser posible) de forma tajante, es una de las herramientas- estrategias teóricas y metódicas mediante las cuales podemos aproximarnos mejor a justificar racionalmente que la ciencia posee determinadas ventajas gnoseológicas; no resulta una simple actividad humana más (un metarrelato) cuyos resultados materiales o gnoseológicos estén al mismo grado que cualquier mitología, práctica misticista, ocultismo o mera charlatanería. Se menciona que es “una de las” pues no es la única; pero sí la más extendida, desarrollada y debatida; y generalmente los demás intentos no demarcatorios resultan mucho menos fructíferos o al fin al cabo ineficientes; es decir, sus discusiones se mantienen durante poco tiempo y presentan corto alcance. Como se vio anteriormente, Laudan propone también una “distinción” que no implica necesariamente demarcar entre ciencia y pseudociencia, e incluso otros autores proponen primero distinguir qué es y no conocimiento, por lo tanto, no podemos afirmar que rechazar el problema de la demarcación es necesariamente sinónimo de adscribir o afirmar el relativismo, pero sí podemos afirmar que su rechazo es una de las vías o estrategias a partir de las cuales los relativistas radicales, detractores  de las ciencias en todos los campos, entre otros, intentan y podrían justificarse. Los hombres de ciencia, quienes abogan por un científicismo no dogmático como el propuesto por Romero (2016), o simplemente cualquier persona que busque nutrirse de argumentos acerca del progreso científico, deberían en lo posible entender el problema de la demarcación; como lo expuesto en este artículo (lo básico); es decir, sus fines últimos, entender las propuestas particulares y lo que caracteriza en común el trabajo filosófico realizado por autores como Popper, Lakatos, Bunge, el segundo Kuhn, Thagard, Pigliucci, Mahner, Boundy, y hacer parte de los debates que aún se ciernen en torno a este importante tópico para la ciencia; cuyo desenvolvimiento puede tornarse útil en contra del acecho de la irracionalidad, el fraude teórico, el fraude práctico y/o cualquier intento de desacreditación filosófica radical en contra de la ciencia.

 

Referencias

·         Ayer, (1984). Lenguaje, Verdad y Lógica. Ediciones Orbis, S.A. España

·         Blaug, M. (1985). History of Political Second Thoughts on Lakatos

·         Bunge, M (2010). Las pseudociencias ¡Vaya timo! Editorial AlNoah.

·         Díez, J. y Moulines, U. (2008). Fundamentos de la filosofía de la ciencia. (3ª edición). Ariel. Documento de trabajo. Universidad del Cauca. Facultad de educación.

·         Fasce,A, (2016).La venganza de hipatia Lo posmo(1)¿Por qué la posmodernidad es una fábrica de imbéciles? Recuperado de:https://lavenganzadehipatia.wordpress.com/2016/10/02/lo-posmo-1-por-que-la- posmodernidad-es-una-fabrica-de-imbeciles/

·         Giraldo, A. (2008). Verificación versus falsación Criterio de demarcación en Carnap y Pontificia Universidad Javeriana Bogotá D.C

·         Gómez, R (s.f). net enciclopedia virtual. Evolución científica y metodología de la economía. Los programas de investigación científica de Lakatos.

·         Hacking, I. (1996). Representar e México D.F.: Seminario de Problemas Científicos y Filosóficos, UNAM; Instituto de Investigaciones Filosóficas, UNAM y Ed. Paidós.

·         Hansson, S. (2008). Science and pseudo science. Stanford Encyclopedia of Philosophy.

·         Jaramillo, L y Aguirre, J. (2004). La controversia Kuhn – Popper en torno al progreso científico y sus posibles aportes a la enseñanza de las ciencias, Cinta moebio 20: 83-92

·         Jaramillo, (2004). Mi mirar epistemológico y el progreso de la ciencia.

·         Kuhn, (1975) ¿Lógica del descubrimiento o psicología de la investigación? En Lakatos, I. y Musgrave, A. (eds). La crítica y el desarrollo del conocimiento científico, Barcelona, Grijalbo, 1975 Barcelona: Grijalbo, 1975. p. 81.

·         Kuhn, (1996). La tensión esencial: Estudios selectos sobre la tradición y el cambio en el ámbito de la ciencia. México

·         Kuhn, T. (2001) La estructura de las revoluciones científicas. México. Fondo de Cultura Económica

·         Lakatos, I (1989). La metodología de los programas de investigación científica.

·         Laudan, L. (1986). El progreso y sus problemas. Madrid,

·         Mahner, M (2013). Science and Pseudoscience: How to Demarcate after the (Alleged) Demise of the Demarcation Problem? En Pigliucci, M. y Boudry, (Eds). Philosophy of Pseudoscience Reconsidering the Demarcation Problem. 2013.

·         Pigliucci, M. (2013). The Demarcation Problem. En Pigliucci, M. y Boudry, (eds). Philosophy of Pseudoscience Reconsidering the Demarcation Problem. 2013.

·         Popper, K (1975). La ciencia normal y sus peligros. En Lakatos, I. y Musgrave (eds). La crítica y el desarrollo del conocimiento científico, Barcelona, Grijalbo, 1975, pag. 149-158. Alianza Editorial. Madrid.

·         Popper, (1980) La lógica de la investigación científica. EDITORIAL TECNOS, S. A. Madrid.

·         Reyes, I (s.f). La teoría de la elección de Paul Thagard

·         Sequeiros, L (2012). Tendencias Las propuestas de Thomas S. Kuhn siguen vivas después de medio siglo. Recuperado de: http://www.tendencias21.net/Las– propuestas-de-Thomas-S-Kuhn-siguen-vivas-despues-de-medio-siglo_a10016.html

·         Thagard, (1978). The best explanatión: Criteria for theory choice. The journal of philosophy, Vol 75, No. 2.