FILOSOFÍA DE LAS MATEMATICAS

U

XIII: MODELOS


La geometría euclidiana fue durante más de 2000 años el modelo del espacio físico en el que vivimos. No obstante, el descubrimiento de geometrías no euclidianas en el siglo XIX destruyó la creencia de que la percepción euclidiana de la geometría es el único modelo posible asociado al espacio. Y fue en la geometría  y en la interpretación del quinto postulado de Euclides, donde primero surgió el pluralismo, que es una filosofía que supone un muy relevante cambio de contexto en la filosofía de las matemáticas.


El quinto postulado de Euclides afirma: Si dos líneas intersecan a una tercera, de forma que la suma de los ángulos interiores en un lado es menor que dos ángulos rectos, entonces esas dos líneas inevitablemente se cruzarán en ese lado si se prolongan suficientemente. En 1846 el matemático escocés John Playfair planteó el axioma que dice: dada una línea L y un punto α exterior a esa línea L, existe una única línea que pasa por el punto α y es paralela a L. Este axioma es el axioma de las paralelas, que se demostró equivalente al quinto de postulado de Euclides y por eso actualmente el quinto postulado de Euclides se conoce como el axioma de las paralelas. Este quinto postulado no se deduce de los cuatro primeros, es decir, es independiente de ellos.


En el siglo XIX, diversos matemáticos demostraron que podían construirse espacios no euclidianos en los cuales el axioma de las paralelas no se cumple. De hecho, aunque pueda ser tentador utilizar el espacio euclidiano tridimensional para modelar el espacio físico, la realidad es que el espacio-tiempo físico no es euclidiano, tal como asegura la teoría general de la relatividad. Y en los espacios no euclidianos, como los hiperbólicos o elípticos, no se cumple el axioma de las paralelas.


Pues bien, la existencia de geometrías no euclidianas es lo que apoya la concepción pluralista de las matemáticas, en contraposición a la concepción monista, en la que un solo y absoluto modelo debe ser adoptado como la verdad. La existencia de diversas geometrías, aparentemente igual de válidas, contradice esta visión monista. Como decía Poincaré, una geometría no puede ser más verdadera que otra, solo puede ser más conveniente.


Pero el pluralismo no se limita a la geometría. Los monistas sostienen que la estructura jerárquica acumulativa de la teoría de conjuntos es única salvo isomorfismo, mientras que el pluralismo sostiene que el hecho que la hipótesis del continuo sea independiente de ZFC demuestra que hay una pluralidad de modelos. La filosofía naturalista considera que hemos de ser pragmáticos y hemos de tomar el modelo más útil para el estudio del que se trate. La concepción monista y fundacionalista demandan un modelo absoluto, llamado modelo estándar. Por el contrario, el pluralismo plantea una pluralidad de modelos.


Pero si hay pluralidad de modelos, ¿cómo encaja ello con el platonismo, que considera que hay un mundo de formas e ideas puras donde reside la verdad absoluta? ¿Cuál de los modelos es “más verdadero”? Por ejemplo, sabiendo que ZFC es consistente tanto con CH (hipótesis del continuo) como con ¬CH, ¿cuál es el valor de verdad de CH para el platonismo?  El filósofo norteamericano Mark Balaguer plantea dos tipos de platonismo. Por un lado, el “silly platonism”, que plantea lo siguiente: dado que el reino matemático es pleno, todas las teorías matemáticas consistentes son verdad. Y por consiguiente, tanto CH como ¬CH son verdad, porque CH es verdad en partes del reino matemático mientras que ¬CH lo es en otras partes. Por otro lado, el “better platonism”, que plantea: hay una diferencia entre ser verdad en alguna estructura particular y ser verdad a secas. Para ser verdad a secas una afirmación matemática pura necesita ser verdad en la estructura deseada o en la parte deseada del reino matemático, aquella que tenemos en mente en la rama matemática de la que se trate.


Si H₁ y H₂ son dos estructuras tales que H₁ ⊨ ϕ y H₂ ⊨ ¬ϕ para alguna afirmación ϕ, entonces alguna de las dos estructuras no puede ser un modelo deseado o estándar al mismo nivel que la otra. La razón es que si ambos modelos fueran igual de estándar o deseados, entonces no habría razón para creer en la existencia de una concepción completa, lo que iría en contra del platonismo. Para encajar con el platonismo (a no ser que consideremos el “silly platonism” que plantea Balaguer) cada modelo debe tener un grado de intencionalidad, de forma que algunos modelos sean más preferidos que otros.


A partir de eso, el platonismo que plantea Balaguer es lo que él llama el “intention-based Platonism” (IBP), que sostiene que una afirmación matemática es verdadera si y solo si es verdadera en todas las partes deseadas del universo matemático, es falsa si es falsa en todas esas partes y no es ni verdadera ni falsa si es verdadera en algunas partes deseadas y falsa en otras. Y Balaguer concluye: “qué afirmaciones matemáticas son verdad está completamente determinado por nuestras intenciones. Ello es así porque la verdad matemática desciende a la verdad en la estructura deseada por nosotros y qué estructuras matemáticas cuentan como deseadas está completamente determinado por nuestras intenciones”. Así pues, para Balaguer la hipótesis del continuo queda indeterminada dado que hay modelos que pueden ser considerados deseados tanto con CH como con ¬CH.


La filósofa canadiense Michèle Friend es otra partidaria del pluralismo, con una postura claramente antifundacionalista. Recordemos que el reduccionismo es la idea de que las matemáticas pueden ser reducidas a objetos de una de las muchas posibles teorías simplificadas. Y el fundacionalismo asegura la existencia de una única teoría fundacional para toda la matemática. Por tanto, el fundacionalismo es una forma estricta de reduccionismo. Friend plantea algunos argumentos pluralistas y antifundacionalistas. Por ejemplo, que cualquier teoría fundacionalista será cambiante a medida que va creciendo y vamos comprendiendo otras partes con una nueva luz. O que la verdad solo tiene sentido en una estructura o una interpretación, en el sentido de que no existen verdades absolutas como “2+8=10” sino que, en realidad, “en la aritmética de Peano, 2+8=10”.


La concepción multiversa de conjuntos es central en el pluralismo. La noción de conjunto es normalmente entendida como un concepto de conjunto único perteneciente a un universo único de teoría de conjuntos, esto es, la jerarquía acumulativa V. Esta es la concepción universa de conjuntos. Sin embargo, los resultados de teoría de conjuntos parecen indicar que podría haber otros universos de conjuntos igual que hay otras geometrías. Así, aparte de la jerarquía acumulativa V, habría la jerarquía constructible L, la clase de los conjuntos hereditariamente ordinales HOD, etc.


Para probar la independencia de una afirmación respecto a ZFC se utiliza habitualmente el método del forzamiento, introducido por Cohen. Si ϕ es una afirmación y queremos probar su independencia, debemos construir modelos para ZFC + ϕ y ZFC + ¬ϕ. Esto se hace tomando un modelo transitivo numerable de ZFC, añadiendo ciertos elementos, llamados conjuntos genéricos, y forzar una extensión del modelo en la que la afirmación deseada se cumpla con los axiomas de ZFC.


Para la visión universa, V no se puede extender dado que V ya es “todo” y por tanto cualquier extensión de V es ilusoria. No es así para el pluralismo y la concepción multiversa. Tomemos por ejemplo CH (hipótesis del continuo). Según la visión universa, CH es una proposición indecidible. Para la visión multiversa CH es verdad en algunos universos y falsa en otros. En la visión universa, hay quien puede creer que hay una solución idílica que resuelva CH mediante el siguiente esquema:


Paso 1: Producir una afirmación evidentemente verdadera ϕ de teoría de conjuntos.

Paso 2: Probar que ϕ implica CH (o ¬CH).


Para los pluralistas, e incluso para los matemáticos en general, conseguir esa solución idílica es imposible porque ya se han tenido experiencias en muchos universos de teorías de conjuntos y en algunos se cumple CH y en otros no. Por tanto, no habrá ninguna afirmación ϕ que sea obvia e implique CH o ¬CH.


El matemático norteamericano Joel David Hamkins es uno de los defensores de esta concepción pluralista y multiversa. E incluso ha presentado unos axiomas para esta visión multiversa, que permite estudiar las relaciones entre universos desde una perspectiva relativista. Recordemos que el teorema Löwenheim-Skolem sugiere que la numerabilidad en un conjunto es algo relativo y, por tanto, cualquier conjunto no numerable de un modelo puede convertirse en numerable en una extensión forzada de ese modelo. Ello da pie al primer axioma del multiverso:


Principio de numerabilidad. Todo universo V es numerable desde la perspectiva de otro mejor universo W.


El segundo axioma también considera relativo el concepto de conjunto bien fundado:


Espejismo de la buena fundación. Todo universo V está mal fundado desde la perspectiva de otro mejor universo W.


Otro axioma concierne a la absorción de un modelo dentro del universo constructible L:


Absorción dentro de L. Cada universo V es un modelo transitivo numerable en otro universo W que satisface V=L.


Tanto la visión universa como la multiversa pueden ser interpretadas en términos platonistas o no. Así, tenemos cuatro posibles casos:


- Visión universa platonista: existe un único universo matemático. Este es el realismo de Gödel.

- Visión universa no platonista: no existe ningún universo matemático en la realidad pero usamos uno, y solo uno, por razones prácticas.

- Visión multiversa platonista: todo objeto matemático que podría existir, realmente existe. Este es el full-blooded Platonism (o platonismo a ultranza) de Mark Balaguer.

- Visión multiversa no platonista: no existe ningún universo matemático en la realidad pero usamos varios simplemente por práctica matemática.


Antos, Friedman y otros plantean una variante multiversa llamada multiverso vertical en la que la jerarquía acumulativa V puede crecer a lo alto pero no a lo ancho. También distinguen entre lo que ellos llaman actualism y potentialism, ambas posiciones se refieren a la modificabilidad de V. El actualism considera que V es fijo y es imposible extenderlo mediante construcciones teóricas de modelos. Por el contrario, el potentialism considera que V es un objeto indefinido, con algunas características fijas obviamente pero que no hacen imposible su modificación. Estos matemáticos y matemáticas utilizan su perspectiva multiversa vertical en su programa de hiperuniverso, que es un proyecto para buscar más axiomas para la teoría de conjuntos.


¿El pluralismo libera la realidad matemática o difumina la verdad matemática? Este es el dilema pluralista: lo que ganamos por un sitio, lo perdemos por el otro. A mayor pluralidad de universos, menos podemos determinar cuál es la verdad objetiva. Ciertamente no podemos negar que hay pluralidad de universos de teoría de conjuntos, y no podemos descartarlos porque, además de obtener resultados de ellos, parecen intrínsecamente plausibles. Si nos vamos a un pluralismo radical, entonces prácticamente todo es plausible y ya no existe la intuición matemática, porque cualesquiera dos afirmaciones contradictorias pueden ser concebidas en dos universos distintos. Y si llevamos el pluralismo radical a la metodología y a las reglas de inferencia, entonces la liberación es absoluta y llegamos a interpretaciones no estándar del lenguaje lógico. Las llamamos no estándar porque no son las interpretaciones que la mente humana percibe de forma más o menos empírica.


Sea como sea, el pluralismo es realmente una perspectiva rompedora y, muy lúcida en mi opinión, sobre lo que son las matemáticas, donde hay múltiples universos posibles y no una única verdad absoluta e incuestionable, sino que la verdad depende del universo del que se trate. De hecho, el pluralismo captura mucho mejor la idea matemática que el formalismo. Sabemos que el formalismo fracasó en su intento de capturar el razonamiento matemático debido a Gödel y sus teoremas de incompletitud. El pluralismo, sin embargo, parece ser una buena unificación de la sintaxis (formalismo) y la semántica. Tal como dicen Pedeferri y Friend:


“Llama pluralista al matemático, antes que formalista. No obstante, llama formalista al programador, antes que pluralista”.


El pluralismo pone negro sobre blanco lo que ya podíamos intuir al comprobar que  hay teorías de conjuntos tanto con CH como con ¬CH que son igualmente consistentes, plausibles y fructíferas. El pluralismo remacha los clavos sobre el ataúd del formalismo como vía de contener toda la matemática. Si hay un multiverso matemático, con múltiples posibilidades (probablemente infinitas), quizás entonces la función de nuestra intuición matemática es seleccionar qué universo, de los múltiples posibles, hay que investigar y profundizar, por ser intuitivamente más fructífero para explicar nuestra realidad.


Con el pluralismo queda claro que nuestra mente creativa es imprescindible para descubrir nuevos universos y que ello no puede formalizarse. No podemos decirle a una máquina que haga eso, ya que tiene los límites que le hemos establecido. Al final la formalización no es más que un conjunto de normas, una mecanización de la lógica. Pero nuestra imaginación matemática no tiene límites, se salta esos límites y esas normas para adentrarse en terrenos desconocidos, no formalizados. Nuestra imaginación siempre irá por delante de cualquier formalización. Como dice el físico y matemático británico Sir Roger Penrose: “No somos máquinas que siguen normas preestablecidas. Hay algo en nuestro interior, en nuestra mente, en nuestra capacidad de entendimiento, que nos permite trascender las normas, sean cuales sean”.


Por otro lado, también queda claro que si tenemos tal vasto multiverso por descubrir, significa que no solo podemos conocer universos matemáticos que aplican a nuestra realidad sino también otros que pueden aplicar en otras realidades, lo cual confirmaría que nuestra mente accede a información que está fuera de nuestra realidad física o sensorial, sino que puede pertenecer a otras realidades que no son en la que estamos físicamente ahora. Y ello nos da una capacidad enorme: la capacidad de pensar o descubrir o crear (el verbo a utilizar depende del papel que nuestra mente tenga en el universo) muchas realidades matemáticas distintas.


XIV. LA HIPOTESIS DEL CONTINUO

A lo largo de la historia de las matemáticas ha habido momentos en que se han superado los límites que imponían las teorías existentes. Ese fue el caso al descubrir los números irracionales, los negativos, los imaginarios, las geometrías no euclidianas, etc. Ello supuso añadir nuevos axiomas y conceptos innovadores a las matemáticas. Actualmente uno de los debates abiertos es sobre si las matemáticas necesitan más axiomas. En este sentido, hay varias vías que presentan posibles candidatos a nuevos axiomas y que son objeto de discusión y controversia. 


Los tres próximos posts los dedicaré a tres de esas vías. Estamos hablando de lo más actual en teoría de conjuntos, cuyas elaboraciones y demostraciones requieren conocimiento avanzado en muchos casos, pero cuyo planteamiento no tiene una comprensión tan difícil. Y es en esto último en lo que me centraré.


El primero de los caminos hacia posibles nuevos axiomas es la hipótesis del continuo (CH). Como es sabido, esta hipótesis establece que todo subconjunto de los reales es o bien numerable o tiene cardinalidad 2^ℵ₀ , es decir, que no hay ningún cardinal entre el cardinal de los naturales y el de los reales. 


Un primer intento de establecer CH fue añadiendo axiomas de infinitos mayores, llamados axiomas de los cardinales grandes. Estos son conjuntos cuya cardinalidad excede todas las cardinalidades que existen dentro de los límites de ZFC. Uno de los tipos más sencillos de cardinales grandes son los cardinales fuertemente inaccesibles.


Un cardinal ζ es fuertemente inaccesible si es no numerable y no es la suma de menos de ζ cardinales menores que ζ , y  λ < ζ  implica que 2^λ < ζ . No podemos probar la existencia de cardinales fuertemente inaccesibles dentro de ZFC pero nada impide trabajar con ellos en demostraciones matemáticas. De hecho, la demostración original de Andrew Wiles sobre el último teorema de Fermat se apoya en la existencia de universos Grothendieck, universos que son equivalentes a asumir que los cardinales fuertemente inacessibles existen y salir, por tanto, de los límites de ZFC. Aunque posteriormente Colin McLarty demostró el mismo teorema de Fermat con mucho menos que ZFC. Sea como sea, posteriormente se demostró que no podemos resolver CH añadiendo cardinales grandes. 


Un segundo intento sobre determinar si CH se cumple o no fue el axioma de simetría de Freiling. Este axioma, propuesto por el matemático estadounidense Chris Freiling, dice lo siguiente: 


Dada cualquier función f : ℝ → ℝ_ℵ₀ que asigna a cada número real x un conjunto numerable de números reales f(x) = S_x ⊂ ℝ , existen x,y ∈ ℝ tales que y ∉ f(x) y x ∉ f(y). (Para la función podemos usar igualmente el intervalo [0,1] en lugar de ℝ, dado que tienen la misma cardinalidad)


La idea intuitiva en este axioma es que como f(x) y f(y) son conjuntos numerables y ℝ no lo es siempre podremos encontrar un número real x que no pertenezca al subconjunto numerable f(y) y un número real y que no pertenezca al subconjunto numerable f(x). Parece bastante obvio e intuitivo, ¿no? Pues bien, si damos por bueno este axioma, significa que la hipótesis del continuo (CH) no se cumple. Y la demostración de ello no es muy compleja y es la siguiente:


El axioma de elección implica que todo conjunto puede ser bien ordenado y tomemos  <  como la relación de ese buen orden en [0,1]. Ahora consideremos una función f que asigna a cada x que pertenece a [0,1] al propio x y todos los números que le preceden en ese buen orden. Es decir, f(x) = {x} ∪ {t : t ∈ [0,1], t < x}. Es un teorema de ZFC que cualquier sección inicial de un buen orden en [0,1] tiene cardinalidad estrictamente menor que la de [0,1]. Por tanto, si CH es cierto, la única cardinalidad menor que la de [0,1] es ℵ₀ y, por tanto, todas las imágenes por f son numerables y podemos aplicar el axioma de simetría de Freiling. Hemos de encontrar dos números x e y tales que y ∉ f(x) y x ∉ f(y). Si y ∉ f(x), por definición de f ha de ser x < y. Y si x ∉ f(y), por definición de f ha de ser y < x. Es decir, al mismo tiempo x < y e y < x en un conjunto bien ordenado, lo cual es imposible. Por tanto, si se cumple CH no se cumple el axioma de simetría. Luego, si se cumple el axioma de simetría, no se cumple CH.


El axioma de simetría es cuestionado por muchos matemáticos por diversos motivos. En primer lugar, este axioma se basa en probabilidad. Considera el hecho que y ∉ f(x) tiene probabilidad 1, el hecho que x ∉ f(y) tiene probabilidad 1 y el hecho que [y ∉ f(x) ∧ x ∉ f(y)] también tiene probabilidad 1. Pero, en general, atribuir probabilidades a subconjuntos arbitrarios de ℝ es un ejercicio complicado, porque las afirmaciones rigurosas de probabilidad sobre conjuntos infinitos requieren que los conjuntos sean medibles, y en ZFC hay subconjuntos de ℝ que no son medibles, ni con la medida habitual de Lebesgue sobre ℝ ni con respecto a cualquier otra medida numerablemente aditiva. El argumento de Freiling consigue evitar este problema inmediato, porque la aditividad numerable asegura que cualquier conjunto numerable tenga medida de Lebesgue cero. Pero es necesario un salto de intuición para pasar del enunciado de probabilidad a una garantía de que x ∉ f(y) ∧ y ∉ f(x) será (con bastante frecuencia) el caso en la práctica. Esto es especialmente cierto cuando los conjuntos f(x) y  f(y) tienen una estructura "fractal" que prohíbe cualquier intento intuitivo de razonar directamente sobre los eventos de probabilidad que implican a estos conjuntos.


Relacionado con la probabilidad, también se cuestiona que el axioma de simetría está considerando que y ∉ f(x) y que x ∉ f(y) sean eventos independientes cuando en realidad la probabilidad de ambos eventos a la vez pueda estar influida por la probabilidad condicionada y no sea el mero producto de probabilidades sino que sea:


Pr[y ∉ f(x) ∧ x ∉ f(y)] = Pr[x ∉ f(y)] * Pr[y ∉ f(x) | x ∉ f(y)] = Pr[y ∉ f(x)] * Pr[x ∉ f(y) | y ∉ f(x)]

siendo Pr[y ∉ f(x) | x ∉ f(y)] y Pr[x ∉ f(y) | y ∉ f(x)] las probabilidades condicionadas.


Hay que tener en cuenta que hay un teorema de ZFC que afirma lo siguiente:


Dado cualquier conjunto Ω, existe una función f : Ω → P(Ω), que asigna a cada elemento de Ω un subconjunto de Ω con las siguientes características:


1. Para cualquier x,y ∈ Ω distintos, o bien f(x) ⊂ f(y) o bien f(y) ⊂ f(x). También, x ∈ f(x) para todo x.

2. Si Ω ⊆ ℝ, entonces f(x) para cualquier x tiene cardinalidad menor que 2^ℵ₀


Por tanto, en la medida en que Ω está bien ordenado si elegimos un x ∉ f(y) entonces Pr[y ∉ f(x) | x ∉ f(y)]=0 porque necesariamente f(y) ⊂ f(x) y cualquier y que elijamos pertenecerá a f(x) porque y ∈ f(y). Con ello, la probabilidad del evento conjunto Pr[y ∉ f(x) ∧ x ∉ f(y)] es inevitablemente cero. Para el otro caso, el razonamiento es análogo.


El segundo argumento de crítica al axioma de simetría es que en su versión fuerte, niega el axioma de elección mismo y eso supone poner patas arriba las matemáticas, ya que sin el axioma de elección se nos esfuman muchas cuestiones fundamentales para el análisis matemático, como por ejemplo que todo espacio vectorial tiene una base. Y además el axioma de elección sí que tiene justificaciones intuitivas intrínsecas muy sólidas. 


El axioma de simetría en su versión fuerte afirma:


Dada cualquier función f :  ℝ → ℝ_<2^ℵ₀ que asigna a cualquier número real x un conjunto de números reales f(x) = S_x ⊂ ℝ de cardinalidad menor que la de ℝ, entonces existen x,y ∈ ℝ tales que y ∉ f(x) y x ∉ f(y).


Por el mismo razonamiento que hemos utilizado antes en la demostración de que el axioma de simetría niega la hipótesis del continuo, la versión fuerte del axioma de simetría nos lleva a que ℝ no está bien ordenado. Asumir el axioma de elección supone que todo conjunto está bien ordenado. Por tanto, negar que ℝ esté bien ordenado supone negar el axioma de elección. En consecuencia, asumir la versión fuerte del axioma de simetría supone rechazar el axioma de elección.


Por todo ello, el axioma de simetría, por ser aparentemente muy intuitivo podría haber sido una solución idílica para dilucidar de una vez por todas si la hipótesis del continuo es verdadera o falsa, pero tiene más sombras que luces y la mayoría de matemáticos y matemáticas la han rechazado como verdad única e incuestionable.


Ello vuelve a dejar la hipótesis del continuo en situación indeterminada y nos reafirma, de momento, en el planteamiento pluralista de las matemáticas, en que hay una multiplicidad de universos y en unos se cumple CH y en otros se cumple ¬CH. Tal como dice el filósofo estadounidense Peter Koellner: “la motivación tras el multiverso es posibilitar los axiomas de los cardinales grandes pero negar que afirmaciones como CH tienen un valor de verdad determinado”. Porque, como sabemos, el multiverso permite tres tipos de afirmaciones:


1. Las verdades universales o afirmaciones que son verdad en cualquier modelo del multiverso.

2. Sus negaciones.

3. Las afirmaciones que son verdad en algunos modelos y falsas en otros.


XV: CONSTRUCTIBILIDAD


Gödel, en su prueba de consistencia de la hipótesis del continuo, consideró el concepto de conjunto definible. Un conjunto es definible en un modelo M, con parámetros a₁, a₂, …, a_n si existe una fórmula ϕ en el lenguaje de la teoría de conjuntos y algunos a₁, a₂, …, a_n ∈ M tal que X = {x ∈ M : M ⊨ ϕ(x, a₁, a₂, …, a_n}}. Sea def(M) = {X ⊂ M : X es definible en M} el conjunto de todos los subconjuntos definibles de M. Notemos M ∈ def(M) y que M ⊂ def(M) ⊂ P(M). En definitiva, de forma muy simplificada, un conjunto es definible si sus elementos cumplen alguna fórmula. Así, usando inducción transfinita en conjuntos definibles tenemos:

L₀ = ∅

L_α+1 = def(L_α)

L_α = U L_β (con β<α) si α es un ordinal límite (es decir, la unión de todos los conjuntos definibles menores que α)

Para todos los ordinales α, L = U L_α (es decir, la unión de todos los conjuntos definibles)


Llamamos a L el universo constructible y la afirmación V = L es el axioma de constructibilidad, que en lenguaje natural significa que todo conjunto es definible. Este axioma fue presentado por Gödel y si lo asumimos, entonces se cumple la hipótesis general del continuo. Por tanto, parece muy tentador aceptar este axioma y cerrar el círculo pero hay un problema: que si se acepta V = L, entonces no hay cardinales medibles.


Un cardinal medible es el punto crítico de una incrustación elemental no trivial j : V → M para alguna clase transitiva M. Recordemos que una clase transitiva es una clase en la que si X ∈ A y A ∈ B, entonces X ∈ B. Una incrustación elemental es una aplicación h: N → M tal que para toda fórmula de primer orden φ(x₁, …, x_n) y todos los elementos a₁, …, a_n de N, N ⊨ φ(a₁, …, a_n) si y solo si M ⊨ φ(h(a₁), …, h(a_n)). Y un punto crítico de j es el primer ordinal cuya imagen no es él mismo. Es decir, si j(α) = α para todo α < k tal que j(k) > k, entonces k es el punto crítico de j. Digamos que un cardinal medible es aquel que puede ser “superado” a través de una incrustación elemental no trivial.


Pues bien, muchos matemáticos y matemáticas rechazan el axioma de constructibilidad por ser tremendamente restrictivo, dado que limita por completo los axiomas de los cardinales grandes. De hecho, el propio Gödel, descubridor del axioma, rechazaba que todos los conjuntos deban ser definibles. En este sentido, en una nota al pie, Gödel expuso que V = L afirma una propiedad mínima pero que en realidad solo una propiedad máxima podría armonizar el concepto de conjunto. 


Esta última perspectiva de Gödel ha recibido mucha aceptación. Moschovakis, por ejemplo, afirma que no hay ninguna razón a priori por la que todo subconjunto de ω deba ser definible desde parámetros ordinales. El axioma de absorción del multiverso de Hamkins también va más allá cuando afirma que todo universo V es un modelo transitivo numerable en otro universo W, en el que se cumple V = L. Es decir, que un universo puede ser no constructible en relación a él mismo pero serlo como parte de otro universo.


La matemática estadounidense Penelope Maddy cuestiona el axioma de constructibilidad porque no maximiza el concepto de conjunto y porque este axioma presupone que toda teoría o entidad matemática deba ser definida de forma uniforme. De hecho, la historia de las matemáticas demuestra la variabilidad  de la idea de definibilidad. Los pitagóricos, por ejemplo, solo consideraban definibles los naturales y √2 les suponía una contradicción, pero ahora sabemos que √2 es algebraico y computable y, desde nuestra perspectiva, perfectamente definible. O el planteamiento de Descartes, que solo consideraba legítimas las curvas que eran definibles mediante ecuaciones algebraicas.


En cuestiones de constructibilidad, la presentación de la función de elección por parte de Zermelo fue una cuestión relevante. Baire, Borel y Lebesgue dudaban de él. Lebesgue, por ejemplo, afirmaba que es imposible demostrar la existencia de un objeto sin definirlo. Poincaré también lo cuestionaba por hacer uso de definiciones impredicativas. El propio Gödel afirmó que el principio del círculo virtuoso es que ninguna totalidad puede contener elementos definibles solo en términos de esa totalidad, o elementos que involucren a o presupongan esa totalidad.


Pero en 1934 el matemático suizo Paul Bernays introdujo la perspectiva cuasi-combinatoria. Lo planteaba así:


“Consideremos las diferentes funciones que asignan a cada elemento de la serie finita 1, 2, …, n un número de la misma serie. Hay n^n funciones de este tipo, obtenida cada una por n determinaciones independientes. Si pasamos a infinito, podemos imaginar funciones generadas por una infinidad de determinaciones independientes, que asignan a cada entero un entero, y podemos razonar sobre la totalidad de estas funciones.

Del mismo modo podemos razonar con el conjunto de los enteros, o de los reales… De esta forma, las definiciones constructivas de funciones específicas solo son formas de elegir un objeto que existe a priori e independientemente de la construcción.”


Para Bernays, pues, no es necesario que cada una de estas aplicaciones pueda ser descrita uniformemente de acuerdo a alguna regla. Fijémonos que la propia inducción transfinita de los conjuntos definibles de Gödel (L_α+1) se basa en tomar los subconjuntos definibles L_α. Y el propio Gödel consideraba que tal inducción era no constructiva por el uso a priori de los ordinales como índices. Es decir, para definir los conjuntos L, se está asumiendo que hay una totalidad de ordinales, que son los subíndices α.


Maddy apoya esta visión afirmando que V = L es un axioma que va contra sí mismo, dado que las fórmulas usadas para definir los conjuntos en cada nivel de la jerarquía son predicativas, pero los ordinales que son los índices en cada nivel no necesitan ser predicativos. Es por todo ello que añadir el axioma V = L es demasiado restrictivo para el universo de la teoría de conjuntos. Es por ello que Maddy plantea otro candidato, que es V = HOD. Veamos qué es HOD.


Un conjunto X es ordinal definible si existe una fórmula ϕ tal que X = {y : ϕ(y, α₁, α₂, …, α_n)} para algunos ordinales α₁, α₂, …, α_n. La clausura transitiva de X, llamada TC(X), se define como TC(X) = ∩ {T : X ⊂ T y T es transitivo}, es decir, la intersección de todos los conjuntos transitivos que contienen a X. Un conjunto X es hereditariamente ordinal definible (HOD) si todo elemento de TC(X) es ordinal definible. En otras palabras, si los elementos de X, los elementos de los elementos de X, y así sucesivamente, son todos ordinal definibles.


El axioma V = HOD es una posible alternativa muy sólida a V = L por dos motivos. El primero es que este axioma no necesita ser predicativo, lo que lo desvincula del tipo más fuerte de constructivismo. El segundo es que es consistente con todo lo que se ha ideado respecto a la teoría de conjuntos, no genera inconsistencias adicionales.


Hay que tener en cuenta que los diversos resultados de teoría de conjuntos que se han revelado independientes de los axiomas de ZFC han hecho tambalear el supuesto sentido fundacional de la teoría de conjuntos respecto a todas las matemáticas. Por ello, en la línea de lo que propuso Gödel respecto a encontrar una propiedad máxima del concepto de conjunto, Maddy plantea dos máximos metodológicos a los que llama “unificar” y “maximizar”.


El concepto “unificar” se refiere a preservar el fundacionalismo, a encontrar una teoría unificada de las matemáticas. Para Maddy, esto es imprescindible porque sin esta pretensión no habría ninguna presión para determinar si la hipótesis del continuo es verdadera o falsa. En este sentido un pluralista es contrario a este concepto de unificar, porque su filosofía se basa en la idea de que puede haber afirmaciones ciertas en unos modelos y falsas en otros. Pero para Maddy, no aspirar a una unificación y tener esta concepción pluralista de las matemáticas conduce a que no haya ningún interés en determinar si una afirmación es verdadera o falsa. Es el arma de doble filo que implica el pluralismo, que lo que ganamos con una mayor libertad de conceptos y universos, lo perdemos por el lado de que la verdad se difumina o se indetermina en mayor medida.


El concepto “maximizar” se refiere a que los axiomas de la teoría de conjuntos, de los que se derivan los teoremas matemáticos, deberían ser lo más potentes y fructíferos posibles y lo menos restrictivos posibles. Por eso Maddy rechaza el axioma de constructibilidad V = L y propone adoptar otro cardinal grande llamado 0^# (“zero sharp”).


Para definir 0^# primero hemos de definir qué es un conjunto de indiscernibles. Sea k un cardinal infinito y sea M un modelo que contiene todos los ordinales α < k. Un conjunto I ⊂ k es un conjunto de indiscernibles para el modelo M si para todo número natural n y para toda fórmula ϕ(x₁, x₂, …, x_n),


M ⊨ ϕ(α₁, α₂, …, α_n) si y solo si M ⊨ ϕ(β₁, β₂, …, β_n) 


siendo α₁ < α₂ < … < α_n y β₁ < β₂ < … < β_n secuencias crecientes de elementos de I. Es decir, un conjunto de indiscernibles es un conjunto de elementos que no pueden ser distinguidos o diferenciados por ninguna fórmula.


Llamemos ϕ’ al número de Gödel de la fórmula ϕ. Entonces podemos definir “zero sharp” del siguiente modo:


0^# = {ϕ’ : L_(ℵ_ω) ⊨ ϕ(ℵ₁, ℵ₂, …, ℵ_n)}


Es decir, “zero sharp” es el conjunto de todas las fórmulas verdaderas sobre “indiscernibles” (elementos indistinguibles) en el universo constructible L.


A modo de paréntesis, cabe mencionar que la identidad de los indiscernibles es un principio ontológico, que se atribuye al filósofo y matemático alemán Gottfried Wilhelm Leibniz y también es conocida como ley de Leibniz. Esta ley se formula en dos principios:


1. La indiscernibilidad de los idénticos: ∀x ∀y [x=y → ∀F (Fx Fy)]

Para todo x y todo y, si x e y son iguales, entonces tienen las mismas propiedades.

2. La identidad de los indiscernibles:

∀x ∀y [∀F (Fx Fy) → x=y ]  Para todo x y todo y, si x e y tienen las mismas propiedades, entonces x e y son idénticos.


El primero de los principios se considera una verdad lógica, mientras que el segundo es algo controvertido y es conocida la argumentación contra él por parte del filósofo británico-estadounidense, nacido azerbaiyano, Max Black.


Pero volvamos a “zero sharp”. El matemático estadounidense Kenneth Kunen demostró el siguiente teorema: 0^# existe si y solo si existe una incrustación elemental no trivial j : L → L . Y él mismo también demostró lo que se llama teorema de inconsistencia de Kunen que afirma que en ZFC no existe ninguna incrustación elemental no trivial j : V → V . Por otro lado, el matemático estadounidense William Nelson Reinhardt presentó los cardinales que son puntos críticos de una incrustación elemental no trivial j : V → V , llamados cardinales de Reinhardt en su honor. Por tanto, a partir del teorema de inconsistencia de Kunen, los cardinales de Reinhardt no existen si ZFC es consistente. Dado que Kunen utilizó el axioma de elección para demostrar su teorema de inconsistencia, aún no sabemos si una incrustación elemental no trivial j : V → V es consistente con ZF.


Sabemos que 0^# es un conjunto no constructible y, por tanto, si existe entonces V ≠ L . Y además la existencia de 0^# implica la existencia de un tipo de isomorfismo que no puede darse en L. Por tanto, ZFC + ‘0^# existe’ es mucho más maximizador que ZFC + ‘V = L’, que es mucho más restrictivo.


En este punto cabe preguntarse sobre los argumentos contra el axioma de constructibilidad V = L . ¿Por qué solo tratar de maximizar el concepto de conjunto pero ello no aplica a otros conceptos matemáticos? Por ejemplo, durante 90 años la noción de computabilidad se ha capturado a través de la tesis de Church-Turing, que es una hipótesis constructivista que describe el concepto intuitivo de computabilidad con máquinas de Turing. En realidad, no hay ninguna razón a priori para que el concepto de conjunto necesite una especificación exacta, mientras confinamos la noción de computabilidad a un modelo mecánico sin dejar espacio para su mejora conceptual. ¿No es en realidad restrictiva la hipótesis de Church-Turing, dado que imposibilita las supertareas? Si es así, ¿no deberíamos aplicar el principio “maximizar”, propuesto por Maddy, a la computabilidad y a cualquier otro concepto de las matemáticas?


En mi opinión, una definición demasiado restrictiva de los conceptos nos encorseta y reduce el conocimiento. En este sentido, el pluralismo es la mayor maximización, ya que no solo amplía la definición de los conceptos sino incluso de los universos enteros, permitiendo el multiverso. Ello, como ya he comentado antes, es a costa de imposibiltar que pueda establecerse una verdad única, absoluta y universal. Pero entre la restricción máxima que implica el constructivismo estricto y la libertad máxima que implica el pluralismo radical, hay todo un abanico de niveles en el que poder situarse, siempre teniendo en cuenta las justificaciones intrínsecas y extrínsecas, es decir, sopesando aquello que intuitivamente nos parece más plausible y aquello que es más fructífero para nuestra mejor comprensión de la realidad física. En la matemática pura (o libre, como decía Cantor), aquella que no es aplicada, estamos llegando a un punto en que puede caber casi todo, obviamente siempre estableciendo antes unos axiomas y unas reglas, de los que se deriven los teoremas y demostraciones coherentemente. Es decir, la matemática entendida como cualquier universo en que puede desarrollarse el razonamiento abstracto.



XVI: UN MODELO INTERNO DE ZFC


Un modelo interno de ZFC es una clase transitiva que contiene todos los ordinales y satisface los axiomas de ZFC. El universo constructible L es el menor de los modelos internos. El intento de ampliar L a una extensión que contenga los cardinales grandes (por ejemplo, los cardinales mayores que los medibles) se conoce como el programa del modelo interno. Se trata pues de conseguir una expansión definitiva del universo constructible L. Este es el axioma V = Ultimate-L , que se debe al matemático estadounidense William Hugh Woodin.

Para explicar cómo se llega a este axioma, habría que explicar conceptos topológicos, como los conjuntos densos en ninguna parte o diseminados, conjuntos de primera categoría, conjuntos con la propiedad de Baire, conjuntos universalmente de Baire, ∑₂-afirmaciones, cardinales de Woodin, cardinales supercompactos, etc.

 Evidentemente ello va mucho más allá de las matemáticas básicas y de mi conocimiento.


Pero sí que se puede tener una imagen general del asunto. El axioma V = Ultimate-L proporciona una concepción bien definida del universo de teoría de conjuntos en que muchos problemas independientes se resuelven. Este axioma pretende describir un universo único y socava lo que es conocido como los axiomas forzados, que permiten construir universos en los que muchos problemas combinatorios de aritmética cardinal, independientes de ZFC, se resuelven.


Algunas de las consecuencias del axioma son que con él, la hipótesis del continuo se cumple y V = HOD (recordemos que HOD son los conjuntos hereditariamente ordinal definibles).


Este axioma deriva en lo que se llama la conjetura V = Ultimate-L (no entro en lo que plantea la conjetura porque es igualmente complejo). Si esta conjetura puede demostrarse será consistente con todos los axiomas de cardinales grandes. Así pues, el axioma V = Ultimate-L de Woodin podría ser la pieza que falta para completar el puzzle para comprender el universo V.


La teoría de conjuntos tiene dos futuros posibles. El matemático estadounidense Ronald Jensen demostró una teorema dicotómico para L, que afirma que o bien L está muy cerca de V o bien está muy lejos de V. Woodin demostró un teorema dicotómico igual pero para HOD en lugar de L. La diferencia entre la dicotomía para HOD y para L es que para este último, incluso cardinales grandes relativamente modestos como 0^# determinan en qué lado de la dicotomía estamos. Si 0^# existe, entonces sabemos que L está lejos de V. No obstante, dado que todos los cardinales grandes habituales son consistentes con V = HOD, en el caso de la dicotomía para HOD, ningún axioma de los cardinales grandes habituales está en el lado “lejos de V” de la dicotomía. De hecho, el programa del modelo interno tiene por objetivo precisamente situarse en la primera opción de la dicotomía: que HOD está cerca de V.


Por otro lado, otra alternativa se da si consideramos el programa de cardinales grandes más allá del axioma de elección, que son consistentes con ZF. Sabemos que los cardinales de Reinhardt son inconsistentes con ZFC pero es una cuestión abierta si son consistentes con ZF. Entonces la jerarquía de los cardinales grandes más allá del axioma de elección puede que simplemente empiece con los cardinales de Reinhardt. Pero la mayoría de cardinales grandes más allá del axioma de elección son inconsistentes si la conjetura V = Ultimate-L se cumple. En consecuencia, si estos cardinales grandes sin axioma de elección son consistentes, entonces HOD está lejos de V y el axioma V = Ultimate-L es falso.


Por otro lado, en Europa, la matemática italiana Tatiana Arrigoni y el matemático austríaco-estadounidense Sy-David Friedman trabajaron en lo que se llama programa del hiperuniverso, también para proporcionar una descripción para V.


El programa del hiperuniverso es un intento de clarificar qué afirmaciones de teoría de conjuntos de primer orden (más allá de ZFC) deben considerarse verdaderas en V. El hiperuniverso se define como la colección de todos los modelos numerables transitivos de ZFC. La comparación de tales modelos evoca principios (de maximalidad y omnisciencia) que sugieren criterios para preferir, sobre bases justificadas, ciertos universos de conjuntos por encima de otros.


En este programa, hay dos tipos de afirmaciones que se consideran verdad en V. Las primeras son los axiomas de ZFC y la consistencia de ZFC + axiomas de cardinales grandes, que se llaman afirmaciones de facto. Las segundas son afirmaciones cuya condición de verdad se establece en el inicio, son verdad en todos los universos preferidos y se llaman afirmaciones de jure.


Friedman formula un principio llamado hipótesis del modelo interno, que afirma que el universo ha sido maximizado con respecto a la consistencia interna en el siguiente sentido: 


“Si una afirmación ϕ sin parámetros se cumple en un modelo interno de algún modelo externo de V, entonces ya se cumple en algún modelo interno de V. Equivalentemente, si ϕ es internamente consistente en algún modelo externo de V, entonces ya es internamente consistente en V.”


Dado que el hiperuniverso es la clase de todos los modelos transitivos de ZFC, puede considerarse un multiverso de modelos. Arrigoni y Friedman anuncian tres desiderátums para el éxito de su programa del hiperuniverso:


Desiderátum 1. El multiverso debería ser tan rico como fuese posible pero no debería ser mal fundado ni de multiplicidad sin límites.

Desiderátum 2. El hiperuniverso no es una pluralidad definitiva. Uno puede expresar preferencias para ciertos miembros de él de acuerdo a criterios basados en principios justificados.

Desiderátum 3. Cualquier propiedad de primer orden de V se ve reflejada en un modelo transitivo de ZFC, que es un miembro preferido del hiperuniverso.


Arrigoni y Friedman también plantean los factores para preferir según qué universos del hiperuniverso, que ellos llaman maximalidad y omnisciencia.


Maximalidad: lo plantean como una maximalidad lógica, que se divide en maximalidad ordinal (vertical) y maximalidad de conjunto potencia (horizontal).

Omnisciencia: un universo es omnisciente si es capaz de describir lo que puede ser verdad en universos alternativos. De forma más concreta, el criterio de omnisciencia es que si Φ es un conjunto de sentencias con parámetros arbitrarios de V, que se cumple en algún modelo externo de V, entonces Φ es definible de primer orden en V.


La búsqueda de nuevos axiomas ha sido, y es, un largo y ambicioso proyecto para entender lo que el universo V de teoría de conjuntos podría ser. La principal meta del proyecto del hiperuniverso es proporcionar una estructura para la teoría de conjuntos. Y es a través de la comprensión del universo de teoría de conjuntos que empezamos a descubrir sus verdades.


La teoría de conjuntos está sobrepasada por los resultados independientes de ZFC. En consecuencia, muchas teorías se plantean a través de elecciones pragmáticas por parte de los matemáticos de teoría de conjuntos, de forma que definen arbitrariamente el valor de verdad de las afirmaciones independientes en sus suposiciones. El multiverso precisamente fue la consecuencia de esta forma de proceder. Por tanto, podemos divisar dos posibles futuros para la teoría de conjuntos: o bien algún programa de expansión tiene éxito y obtenemos una estructura plausible en la que podamos hacer matemáticas, o bien la teoría de conjuntos permanece como una disciplina matemática donde definimos el valor de verdad de afirmaciones que colocamos a nuestro antojo, usando el método de forzamiento del matemático estadounidense Paul Joseph Cohen.


XVII NOMINALISMO

Hasta ahora, todas las corrientes filosóficas expuestas eran en mayor o menor medida platonistas. El platonismo plantea que los objetos matemáticos existen como objetos abstractos, es decir, objetos que no están ubicados en el espacio-tiempo observable ni tienen ninguna conexión causal con nosotros. Pero hay una corriente completamente opuesta al platonismo: el nominalismo. El nominalismo plantea que no existen objetos, ni relaciones, ni estructuras de matemáticas en absoluto, ni tampoco existen como objetos abstractos. Hay dos tipos de nominalismos: 

1. Aquel que plantea la reformulación de teorías matemáticas para que no haya ninguna necesidad de la existencia de objetos matemáticos.

2. Aquel que no reformula ninguna teoría matemática pero en su lugar ofrece un relato sobre cómo es innecesario creer en la existencia de objetos matemáticos si utilizamos alguna de esas teorías matemáticas.

El nominalismo matemático es una forma de antirrealismo sobre objetos abstractos. Este tema es independiente del problema tradicional del nominalismo sobre universales, corriente filosófica que se remonta ya a la Edad Media con filósofos como William of Ockham, o posteriormente Thomas Hobbes, entre muchos otros. Un universal es algo que puede ser instanciado o expresado por diferentes entidades o cosas. Por ejemplo, “ser verde” es un universal y hay muchas cosas que pueden instanciar o expresar esa condición de “ser verde”. El nominalismo sobre universales niega que los universales existan de forma previa a las cosas sino que solo puede existir “post res”. Siguiendo el ejemplo, para el nominalismo sobre universales no existe la idea universal de “ser verde” de forma previa a la existencia de las cosas sino que solo después de que las cosas existen, podemos compararlas y determinar que varias de ellas son verdes. Dado que los objetos abstractos no están presentes en el espacio-tiempo, no pueden ser instanciados ni expresados, con lo que el nominalismo matemático y el nominalismo sobre universales tratan sobre cuestiones independientes.

En la filosofía contemporánea de las matemáticas hay cinco problemas que deben abordarse:

1. El problema epistemológico de las matemáticas.

2. El problema de la aplicación de las matemáticas.

3. El problema de la semántica uniforme.

4. El problema de tomar de forma literal el discurso matemático.

5. El problema ontológico.

Habitualmente se considera que los problemas 1 y 5 son especialmente difíciles de resolver para el platonismo mientras que los problemas 2, 3 y 4 son difíciles de encajar para el nominalismo. Examinemos cada uno de los cinco problemas.


1.El problema epistemológico de las matemáticas


Este problema consiste en explicar cómo accedemos al conocimiento matemático, teniendo en cuenta que los objetos matemáticos no parecen jugar ningún rol por sí mismos en generar nuestras creencias matemáticas.

El platonismo plantea que los objetos matemáticos no están en el espacio-tiempo observable ni tienen ninguna relación causal con nosotros. Pero entonces, ¿cómo obtenemos conocimiento sobre ellos? ¿Cómo nos llega ese conocimiento? ¿Es a través de algún tipo de intuición?  ¿Requiere alguna forma específica de abstracción? Digamos que el platonismo no ha resuelto empíricamente este problema sino que simplemente sigue siendo una mera creencia que a través de nuestra mente accedemos a un conocimiento sobre unos objetos que no están en nuestro universo observable ni tienen conexión causal con nosotros. 

Para el nominalismo, dado que rechaza que los objetos matemáticos existan como tales ni en otro mundo ni en este, este problema desaparece, más allá de tener que explicar qué diferencia a un matemático, que tiene amplios conocimientos en matemáticas, de un no-matemático, que no los tiene. La diferencia entre esas dos personas,

según los nominalistas, es en conocimiento empírico y lógico, nada más.


2.El problema de la aplicación de las matemáticas


Este problema tiene que ver con cómo se explica que las matemáticas funcionen tan bien para las teorías científicas que explican nuestro universo.


El platonismo responde de forma muy sólida a este problema: Dado que los objetos matemáticos existen y nuestras teorías científicas hacen uso de estos objetos matemáticos, no es ninguna sorpresa que las teorías científicas tengan éxito. Este argumento platonista tiene que ver con el argumento de indispensabilidad de las matemáticas de Quine-Putnam que expuse en el décimo post, argumento que dice lo siguiente:


Premisa 1: debemos estar convencidos de la existencia de objetos que son indispensables para nuestras mejores teorías científicas.

Premisa 2: los objetos matemáticos son indispensables para nuestras mejores teorías científicas.

Conclusión: debemos estar convencidos de la existencia de objetos matemáticos.


Está claro que el argumento de indispensabilidad es uno de los puntos fuertes del platonismo. Pero hay también aspectos controvertidos. Podemos considerar que esas estructuras matemáticas abstractas se instancian, o se revelan, en el mundo físico, pero hay una infinidad de estructuras matemáticas y no hay forma de determinar realmente cuáles de ellas se instancian, totalmente o en parte, en una simple región finita del universo físico. Existe también otra clara indeterminación, dado que la misma estructura física puede acomodarse a más de una estructura matemática.


Pero para el nominalismo este problema es especialmente complicado de esquivar. Porque si para un nominalista los objetos matemáticos no existen, resulta inexplicable que referirse a esos objetos puede contribuir un ápice al éxito empírico de teorías científicas.

 

3.El problema de la semántica uniforme


Uno de los rasgos más significativos del platonismo es el hecho de que nos permite adoptar la misma semántica tanto para el discurso matemático como para el científico. Dada la existencia de objetos matemáticos, los enunciados matemáticos son verdaderos del mismo modo que lo son los enunciados científicos. La única diferencia estriba en sus respectivos creadores de verdad: los enunciados matemáticos son verdaderos en virtud de objetos abstractos (matemáticos) y de las relaciones entre ellos, mientras que los enunciados científicos son verdaderos en virtud de objetos concretos y de las correspondientes relaciones entre dichos objetos. 


Además, como es típico en la aplicación de las matemáticas, también hay enunciados mixtos, que implican tanto términos referidos a objetos concretos como términos referidos a objetos abstractos. El platonista tampoco tiene problemas en proporcionar una semántica unificada para tales enunciados.


No está claro que el nominalista pueda ofrecer estas ventajas. La mayoría de las versiones del nominalismo requieren una reescritura sustancial del lenguaje matemático. Como resultado, es necesario ofrecer una semántica distinta para ese lenguaje en comparación con la semántica que se ofrece para el discurso científico.


4. El problema de tomar de forma literal el discurso matemático


El platonismo también parte con ventaja ante este problema, ya que no necesita cambiar la sintaxis de las afirmaciones matemáticas. Si un platonista afirma que hay infinitos números primos, lo puede tomar de forma literal. El platonismo no necesita reescribir ni reformular las afirmaciones matemáticas porque considera que los objetos matemáticos existen.


El nominalismo no puede hacer lo mismo, dado que considera que los objetos matemáticos no existen. No puede afirmar que hay infinitos números primos tal cual porque según el nominalismo, tales objetos no existen. Es por ello que se hacen necesarias lo que se conocen como estrategias de nominalización para cambiar o bien la sintaxis o bien la semántica de las afirmaciones matemáticas.


5.El problema ontológico


Este problema consiste en precisar la naturaleza de los objetos con los que una perspectiva filosófica se compromete. Si el platonismo, en general, afirma que los objetos matemáticos existen, debería poder determinar cómo son realmente esos objetos, cuál es su naturaleza. Pero evidentemente el platonismo no es capaz de determinar la naturaleza de los objetos matemáticos porque los plantea como una realidad externa o no observable.

En los próximos posts, expondré los postulados de las tres corrientes principales del nominalismo, que son el ficcionalismo matemático, el estructuralismo modal y el nominalismo deflacionario. Las dos primeras rechazan la segunda premisa del argumento de indispensabilidad, es decir, niegan que los objetos matemáticos sean indispensables para nuestras mejores teorías científicas. Por eso se llaman caminos difíciles (“hard roads”) del nominalismo, porque implican reformular las matemáticas. La tercera corriente rechaza la primera premisa del argumento de indispensabilidad, es decir, niega que existan objetos indispensables para nuestras mejores teorías científicas. Por eso se llama camino fácil (“easy road”) del nominalismo, porque no niega que podamos pensar objetos matemáticos abstractos sino que solo niega que existan en la realidad.

XVIII: FICCIONALISMO MATEMATICO


Una de las corrientes del nominalismo es el ficcionalismo matemático, impulsado por el filósofo estadounidense Hartry Field. Según el ficcionalismo los objetos matemáticos no existen y, en consecuencia, toda afirmación matemática existencial es falsa y toda afirmación matemática universal es vacuamente verdad. Por tanto, la afirmación “hay infinitos números primos” es falsa porque los números no existen. Pero para poder utilizar las matemáticas, el ficcionalismo introduce operadores ficcionales de forma que la afirmación anterior se transforma en “de acuerdo con la aritmética, existen infinitos números primos”, que es una afirmación verdadera y comparable a “en la ficción de Tolkien, Frodo existe”.  Es decir, el ficcionalismo considera las matemáticas como ficción. De ahí el nombre de esta corriente.


El ficcionalismo lleva a cabo su estrategia antiplatonista a través de dos movimientos interrelacionados. El primero es cambiar el objetivo de las matemáticas, que no es la verdad sino el conservadurismo. Una teoría matemática es conservadora si es consistente con toda teoría internamente consistente con el mundo real. Fijémonos que el conservadurismo es más fuerte que la consistencia (toda teoría matemática conservadora es consistente por definición) pero no es más débil que la verdad. Simplemente es un objetivo diferente. Básicamente lo que significa el conservadurismo es que si tenemos una teoría no matemática consistente sobre el mundo físico, entonces la matemática consistente con esa teoría no añade ninguna información nueva, simplemente nos facilita el trabajo, nos sirve de apoyo, nada más.


Pero para demostrar que las matemáticas son conservadoras, el ficcionalismo se apoya en una versión del teorema de compacidad. Pero este teorema suele presentarse como el corolario del teorema de completitud de lógica de primer orden, cuya demostración asume la teoría de conjuntos. Es decir, para demostrar que las matemáticas son conservadoras y que, por tanto, los objetos matemáticos no existen y que solo son una ficción que nos sirve de apoyo para desarrollar teorías científicas sobre el mundo físico, el ficcionalismo se apoya en un teorema que parte de la base de que los objetos matemáticos existen. Contradicción.


El segundo movimiento de la estrategia ficcionalista consiste en proporcionar premisas nominalistas. Para hacerlo se inspira en la formalización de la geometría que hizo Hilbert. Éste planteó los conceptos de punto, interior y congruencia del siguiente modo. Decimos que w es interior a los puntos x y z si es un punto del segmento cuyos puntos extremos son x y z. También decimos que el segmento xz es congruente con el segmento wy si la distancia entre x y z es la misma que entre w e y. Estas premisas (nominalistas) que no incorporan ninguna mención ni cuantificación sobre números reales nos permiten construir una función (matemática) d, cuyo conjunto origen son pares de puntos y su imagen son los reales no negativos. De forma que xz es congruente con wy si y solo si d(x,z)=d(w,y) e y es interior a x y z si y solo si d(x,y)+d(y,z)=d(x,z). Pero fijémonos que la función d no añade nada nuevo a las premisas (nominalistas), simplemente es la contrapartida abstracta, como dice Field, a esas premisas, aunque nos facilita las cosas y nos sirve de apoyo.


Field hizo esto mismo pero con la física newtoniana. Primero planteó predicados comparativos, como los de Hilbert, y a partir de ellos construyó las funciones matemáticas consistentes con esos predicados, que sirven de soporte matemático a esos predicados. El problema de este planteamiento es cómo abordarlo en realidades como la física cuántica que no tienen una evidencia empírica tan obvia o que incluso la observación altera las evidencias. Parece imposible abordar estas realidades si no es de forma previa desde las matemáticas, no a posteriori.


Por tanto, el ficcionalismo tiene dos problemas no resueltos y de difícil solución. Por un lado, para afirmar que los objetos matemáticos no existen hemos de demostrar que son conservadoras en el sentido nominalista, pero para demostrar que son conservadoras tarde o temprano llegamos a una afirmación lógica o metalógica en la que utilizamos objetos matemáticos. Dicho de forma simplificada, es imposible demostrar nada sobre las matemáticas mismas sin recurrir a objetos abstractos. 


El otro problema, por otro lado, es el siguiente. Para afirmar que los objetos matemáticos no existen hemos de hacer lo que se llama nominalización, que significa que toda teoría científica ha de poder ser expresada de forma que no haya ninguna referencia a objetos matemáticos. Luego evidentemente podemos aprovechar las matemáticas igualmente como sistema de apoyo o para facilitarnos cálculos, deducciones, etc. Pero si pudiéramos expresar cualquier teoría científica sin que las matemáticas fuesen indispensables, estaríamos precisamente demostrando que los objetos matemáticos no existen. Y podemos hacer esa nominalización en algunas teorías científicas, como la geometría euclidiana o la física newtoniana, utilizando predicados comparativos o estrategias similares. Pero no parece que podamos hacerlo en terrenos como la física cuántica, donde para elaborar cualquier teoría científica hemos de referirnos a objetos matemáticos de forma indispensable.


XIX ESTRUCTURALISMO MODAL


El estructuralismo modal es otro tipo de nominalismo, sugerido por el filósofo estadounidense Hilary Putnam y desarrollado por el también filósofo estadounidense Geoffrey Hellman, que parte de dos características: el énfasis en las estructuras como sujeto principal de las matemáticas y la eliminación de las referencias a los objetos matemáticos interpretando las matemáticas en términos de lógica modal. La lógica modal es una lógica que incorpora los operadores modales ▢ y ♢ , que respectivamente significan “es necesario que” y “es posible que”. En este sentido, el estructuralismo modal plantea que una estructura es posible sin afirmar que exista en la realidad. 

Por ejemplo, supongamos una afirmación de teoría de números articulada en la aritmética de Peano (PA), donde las estructuras son progresiones o ω-secuencias que satisfacen los axiomas de PA. Entonces el estructuralismo modal plantea dos afirmaciones modales sobre una determinada afirmación S:

- La componente hipotética (es necesario que), que dice:

▢ ∀X (X es una ω-secuencia que satisface los axiomas de PA → S se cumple en X)

- La componente categórica (es posible que), que dice:

♢ ∃X (X es una ω-secuencia que satisface los axiomas de PA)

Por tanto, dado que solo se asume la posibilidad de las estructuras en cuestión, no hay costes ontológicos, ya que no se afirma la existencia de ningún objeto o estructura matemática.

A partir de ahí, el estructuralismo modal entra en el problema de la aplicabilidad de las matemáticas. Primero considera tres componentes en las afirmaciones matemáticas: las estructuras que se usan en las matemáticas aplicadas, los objetos no matemáticos a los que se aplican las estructuras matemáticas y la aplicación que relaciona las estructuras matemáticas y los objetos no matemáticos. Las estructuras matemáticas relevantes pueden ser formuladas en teoría de conjuntos, de forma que la aplicación mencionada se expresa como un isomorfismo o un homomorfismo entre el mundo físico y las estructuras de la teoría de conjuntos.

Aunque no son necesarias todas las estructuras matemáticas. Por ejemplo, consideremos un conjunto de objetos reales dispuestos de forma lineal. Podemos definir una función entre estos objetos y un segmento inicial de los números naturales. Por tanto, no es necesario capturar la estructura completa de los números naturales. Solo es necesario que el orden físico entre los objetos sea recogido por la función mencionada. Esto es lo que en el estructuralismo modal se conoce como la condición de determinación sintética.

Este planteamiento se enfrenta a dos dificultades. La primera es que, dado que la equivalencia estructural se establece por un isomorfismo, los objetos materiales ya están formulados en términos estructurales. Es decir, ya se ha aplicado alguna matemática al dominio del mundo físico en cuestión. La segunda dificultad es sobre qué base sabemos que la equivalencia se cumple, lo que nos lleva a un dilema. O bien asumimos que la equivalencia se cumple, la pregunta epistemológica es obligada: ¿cómo nos llega el conocimiento que nos lleva a asegurar que se cumple? O bien asumimos que no sabemos si la equivalencia se cumple, lo cual nos impide asegurar que se cumple, dejando el estructuralismo modal sin base.

¿Qué supone el estructuralismo modal para los cinco problemas de las matemáticas?


El problema epistemológico de las matemáticas:


Este problema se resuelve solo en parte. Dado que el estructuralismo modal no afirma que los objetos matemáticos existan, no es necesario explicar cómo obtenemos conocimiento de ellos. Pero sí se hace necesario explicar cómo nos llega el conocimiento de la posibilidad de las estructuras matemáticas relevantes.


El problema de la aplicación de las matemáticas:


Con el estructuralismo modal la cuestión de cómo dar sentido a la forma en que se utilizan realmente las matemáticas en contextos científicos sigue sin resolverse. El argumento de indispensabilidad es reformulado del siguiente modo:

Premisa 1: debemos estar convencidos de la existencia de estructuras que son indispensables para nuestras mejores teorías científicas.

Premisa 2: la posibilidad de las estructuras matemáticos es indispensable para nuestras mejores teorías científicas.

Conclusión: debemos estar convencidos de la posibilidad de las estructuras matemáticos.


El problema de la semántica uniforme:


El estructuralismo modal no puede proporcionar una semántica uniforme. Los operadores modales que introduce para las teorías matemáticas no son requeridos en las teorías científicas. De hecho, si incorporáramos los operadores modales a las teorías científicas estaríamos diciendo que una situación física es solo posible, en lugar de afirmar que se da en la realidad.


El problema de tomar de forma literal el discurso matemático:


Precisamente al tomar operadores modales, el estructuralismo modal no se toma de forma literal el discurso matemático.


El problema ontológico:


Evidentemente, como el estructuralismo modal niega la existencia de los objetos matemáticos, no cabe preguntarse cuál es la naturaleza de tales objetos. No obstante, dado que el estructuralismo modal utiliza operadores modales para hacer su “traducción” de las matemáticas, sí cabe preguntarse sobre qué es lo que hace que tales afirmaciones sean verdad. Es decir, cuando esta corriente filosófica del nominalismo afirma que “es posible que haya estructuras que satisfacen los axiomas de la aritmética de Peano”, ¿qué hace que tal afirmación sea verdad? Y más teniendo en cuenta que el estructuralista modal no considera que los axiomas de la aritmética de Peano sean una verdad real.


XX NOMINALISMO DEFLACIONARIO


La última corriente del nominalismo es el nominalismo deflacionario. Esta corriente afirma que las teorías matemáticas son indispensables para las teorías científicas, que las teorías científicas son verdaderas pero niega que los objetos matemáticos existan en realidad. Por eso a esta corriente se la denomina camino fácil o “easy road” del nominalismo, porque niega la existencia de los objetos matemáticos sin negar su indispensabilidad para hacer ciencia.


Lo que hace el nominalismo deflacionario es distinguir entre el compromiso del cuantificador y el compromiso ontológico. Es decir, no es lo mismo decir ∃x que afirmar que x existe en la realidad. Para el filósofo norteamericano Jody Azzouni, lo que existe en la realidad es todo aquello que es ontológicamente independiente de nuestras prácticas lingüísticas y nuestros procesos psicológicos. Según el nominalismo deflacionario, como los conceptos matemáticos no son independientes de nuestros procesos psicológicos, no tenemos por qué asumir su existencia en la realidad aunque utilicemos cuantificadores existenciales para referirnos a ellos en nuestras teorías matemáticas.


Pero, ¿en qué sentido los objetos matemáticos son dependientes de nuestras prácticas lingüísticas y nuestros procesos psicológicos? Para Azzouni, los conceptos matemáticos se crean simplemente por ser postulados, simplemente por establecer un conjunto de axiomas, con la única condición de que el resultado de esos postulados sea interesante y consistente para la comunidad matemática. Eso es más que suficiente, con lo que según Azzouni los objetos matemáticos no tienen cargas epistémicas. Y según él, se puede asumir perfectamente que una afirmación matemática sea verdad en el terreno matemático sin tener que aceptar automáticamente que ese objeto matemático exista en la realidad. Lo que cuestiona Azzouni es la consecuencia del criterio de indispensabilidad de Quine: que las teorías matemáticas sean indispensables para la ciencia y que las teorías científicas sean verdad no implica que los objetos matemáticos existan en la realidad.


¿Qué supone el nominalismo deflacionario para los cinco problemas de las matemáticas?


El problema epistemológico de las matemáticas:


Este problema desaparece en el nominalismo deflacionario. Dado que los objetos matemáticos no existen, no obtenemos ningún conocimiento de ellos. El conocimiento matemático simplemente sigue de los principios matemáticos que nosotros creamos y de las demostraciones a partir de aquellos.


Alguien puede plantear que en matemáticas hay cosas no demostrables pero de las que igualmente obtenemos conocimiento. Por ejemplo, sabemos que la afirmación en la demostración del teorema de incompletitud de Gödel no es demostrable en el sistema considerado pero en cambio sabemos que es verdadera. Azzouni salva esto afirmando que siempre podemos incrustar un sistema incompleto (como la aritmética de Peano) en un sistema más fuerte en el que esa afirmación indemostrable entonces puede ser demostrada.


Evidentemente el conocimiento matemático no es fácil de obtener, porque las consecuencias de un grupo no trivial de axiomas no son transparentes y es preciso mucho trabajo para determinar tales consecuencias. Pero según el nominalismo deflacionario que el conocimiento matemático no sea trivial no significa que sea obtenido de forma externa a nuestros procesos psicológicos.


El problema de la aplicación de las matemáticas:


Según Azzouni este problema no es un problema filosófico genuino ya que se trata de por qué nos sorprende que las matemáticas sean tan aplicables a la realidad física y por qué tenemos la sensación de que las descubrimos. Él considera que la sorpresa se debe a lo que llama opacidad implicacional, que significa que somos incapaces de ver, antes de una demostración o prueba, las consecuencias de varias afirmaciones matemáticas. Una posibilidad que plantea es que esa opacidad implicacional se deba a las neuronas inhibidoras, que frenan los impulsos eléctricos entre neuronas excitadoras para ahorrar energía, de forma que se provoca el efecto iceberg, haciendo que solo veamos una parte superficial del iceberg de información. Así pues, la opacidad implicacional sería una simple adaptación evolutiva en forma de ahorro de energía para sobrevivir. Pero sin la acción de esas neuronas inhibidoras, seríamos capaces de ver las consecuencias de varias afirmaciones matemáticas, lo cual ya no nos provocaría sorpresa ni la sensación de que estamos descubriendo algo.


Según algunos matemáticos, Azzouni enfoca este problema cambiando las reglas del debate. Para él, el hecho de que tengamos la sensación de que descubrimos las matemáticas es lo que nos lleva a sorprendernos de que las matemáticas sean tan aplicables a la realidad física. Pero para muchos matemáticos ese no es el enfoque sino que el problema es este otro: ¿por qué las matemáticas se ajustan tan bien a la realidad física si son conceptos abstractos que aparecen o surgen de la mente humana? No por qué nos sorprende que así sea.


El problema de la semántica uniforme:


El nominalismo deflacionario no plantea ninguna semántica distinta a la habitual, con lo que no tiene este problema, como sí lo tenía el ficcionalismo o el estructuralismo modal. Ahora bien, ¿cómo encaja el hecho de una filosofía que afirma que es verdad que haya números pero que los números no existen? El nominalismo deflacionario no tiene ningún problema en aceptar los cuantificadores matemáticos tal cual si ello no implica aceptar un compromiso ontológico.

Entonces, ¿cómo distinguimos los usos ontológicamente serios de lo que son usos inocentes? Lo que hace el nominalismo deflacionario es añadir predicados existenciales. Por ejemplo, si queremos decir que los números no existen en la realidad, escribiríamos

∀x (Nx → ¬Ex)

N es la propiedad de ser número, mientras que E es la propiedad de existir en la realidad.

Pero tranquilamente podríamos escribir:

∃x (Nx → ¬Ex)

que significaría que existe un x (existencia que no compromete ontológicamente) tal que si x es un número, entonces x no existe (existencia que sí compromete ontológicamente).


El problema de tomar de forma literal el discurso matemático:


La introducción del predicado existencial del punto anterior nos lleva a que el nominalismo deflacionario impide tomar de forma literal el lenguaje matemático. Evidentemente el nivel de reconstrucción que esta corriente requiere hacer del lenguaje matemático es ostensiblemente menor que el de las otras dos corrientes nominalistas de los anteriores dos posts, pero igualmente exigen un cierto nivel de acomodo. Así pues, el nominalismo deflacionario plantea una noción de referencia que no presupone la existencia de los objetos a los que se refiere.


El problema ontológico:


El nominalismo deflacionario no tiene este problema porque niega la existencia de lo objetos matemáticos, por lo que no tiene que explicar qué tipo de objetos son. Solo acepta la existencia de objetos concretos, independientes de nuestros procesos psicológicos y prácticas lingüísticas.

Ahora bien, curiosamente un platonista también podría afirmar que los objetos matemáticos existen por exactamente la misma razón: porque existen en un mundo ideal de forma independiente a nuestros procesos psicológicos y prácticas lingüísticas.