Filosofía de la cosmología y la astrofísica
Publicado en línea por Cambridge University Press: 18 septiembre 2025
Siska De Baerdemaeker
Resumen
La cosmología y la astrofísica proporcionan un recurso único para los filósofos de la ciencia: debido a la física novedosa, la lejanía de sus objetivos y el rango de escalas espaciotemporales relevantes, la investigación en estas áreas lleva la metodología de la ciencia empírica a sus límites. Por lo tanto, no debería sorprender que la filosofía de la cosmología y, en menor grado, la filosofía de la astrofísica, hayan experimentado un crecimiento explosivo en las últimas dos décadas. Este Cambridge Element examina la literatura existente, identifica áreas para futuras investigaciones y destaca cómo la filosofía de la cosmología y la astrofísica tienen implicaciones para los debates en la filosofía general de la ciencia.
1 Introducción
La cosmología y la astrofísica llevan la metodología científica a sus límites. Sus objetivos mundanos son remotos, cubriendo escalas espaciotemporales más allá del alcance de cualquier experimento terrestre prácticamente concebible. Algunos de sus objetivos son únicos. Estudian regímenes en los que se espera que nuestras mejores teorías físicas actuales se rompan. Y se han introducido varios tipos de física novedosa puramente por motivos cosmológicos o astrofísicos. A primera vista, esto parece razón suficiente para ser escéptico sobre su éxito epistémico: ¿cómo puede la ciencia tener éxito en circunstancias tan extremas?
Sin embargo, el consenso actual es que la cosmología y la astrofísica han tenido bastante éxito en la reconstrucción de la evolución de nuestro universo y de los objetos astrofísicos. Por un lado, varios Premios Nobel de Física de las últimas dos décadas han recompensado la investigación en cosmología y astrofísica, que van desde el estudio de agujeros negros, ondas gravitacionales y exoplanetas, hasta la expansión acelerada del universo y la radiación cósmica de fondo de microondas. Mi primer objetivo en este Elemento es explorar las muchas formas en que la cosmología y la astrofísica han tenido éxito, a pesar de los desafíos que enfrentan estas disciplinas. Demostraré que la metodología de la cosmología y la astrofísica es extremadamente rica. Por lo tanto, cualquier afirmación general sobre la "falta de acceso empírico" es injustificada, aunque ciertamente hay contextos en los que los recursos empíricos disponibles son limitados.
El éxito de la cosmología y la astrofísica también implica una oportunidad inusual para los filósofos de la ciencia. Estas disciplinas pueden proporcionar un banco de pruebas para varios puntos de vista filosóficos sobre la epistemología y la metafísica de la ciencia. ¿Se mantienen cuando se aplican a la investigación cosmológica y astrofísica? Mi segundo objetivo es, por lo tanto, resaltar mediante la demostración cuánto puede ganar la filosofía de la ciencia prestando mucha atención a la cosmología y la astrofísica. En el camino, quedará claro que lo contrario también es cierto: la filosofía de la ciencia puede proporcionar recursos útiles para resolver las controversias existentes en cosmología y astrofísica.
Este elemento presenta el rico cuerpo de erudición filosófica sobre cosmología y astrofísica que ha surgido en los últimos años, y señala áreas maduras para la investigación filosófica. No pretende dar una visión exhaustiva de todos los temas de interés filosófico que se relacionan con la cosmología y la astrofísica.Nota a pie de página1 Sospecho que la mayoría de estos temas aún no han sido extraídos por los filósofos.
Procederé de la siguiente manera. El resto de esta Introducción establecerá algunas bases necesarias: delineando el alcance de la cosmología, la astrofísica y la astronomía, así como proporcionando algunos antecedentes científicos. Las siguientes cuatro secciones se centran en temas de investigación específicos en cosmología y astrofísica: inflación cósmica (Sección 2), materia oscura (Sección 3), energía oscura (Sección 4) y agujeros negros (Sección 5). Los tres primeros son ejemplos de física novedosa que se introduce principalmente sobre bases cosmológicas o astrofísicas. Y aunque los agujeros negros son una predicción genérica de la relatividad general y, por lo tanto, no son "propiamente" novedosos, también son áreas en las que se espera que la física novedosa desempeñe un papel. Por razones de brevedad, por lo tanto, a veces me referiré a los cuatro casos como "física novedosa". Para cada caso, cuento la evidencia más importante y reviso las preguntas filosóficas que plantean. Como tal, los cuatro casos también sirven como contraejemplos a la idea de que la cosmología y la astrofísica son de alguna manera inherentemente limitadas. La sección 6 da un paso atrás para evaluar la epistemología y la ética de la cosmología y la astrofísica en general. La sección 7 concluye destacando ciertos temas que reaparecen a lo largo de las diferentes secciones de este elemento. La mayoría de estos son temas que son de interés para los filósofos de la ciencia en general, pero que pueden adquirir un nuevo sabor en el contexto de la filosofía de la cosmología y la astrofísica.
1.1 Cosmología, Astrofísica y Astronomía
La cosmología, la astrofísica y la astronomía investigan el universo más allá de los límites del sistema solar, pero con diferentes enfoques. Si bien los límites entre las tres disciplinas son borrosos, una delineación aproximada de las tres nos ayudará a tener más claro el tema actual (ver también Jacquart, Referencia Jacquart2020, nota 1).
La cosmología estudia el origen y la evolución del universo a las escalas más grandes. Describe cómo el universo evolucionó desde un estado denso caliente inicial hasta hoy, aproximadamente 13.800 millones de años después, y cómo, durante ese tiempo, la estructura a gran escala en el universo surgió de la formación de los elementos más ligeros al desarrollo de la "red cósmica", una estructura de cúmulos de galaxias y filamentos que los conectan. Como disciplina, la cosmología relativista tiene aproximadamente 100 años. Einstein (Referencia Einstein1917) aplicó por primera vez la relatividad general al universo en su conjunto. Sin embargo, durante los primeros cincuenta años más o menos, la disciplina siguió siendo en gran medida teórica, con una base empírica limitada. Esto cambió en 1965 con el descubrimiento de la radiación del Fondo Cósmico de Microondas (CMB), un remanente del Big Bang que proporciona un mapa de nuestro universo cuando era muy joven. Hoy en día, los cosmólogos utilizan estudios de estructuras a gran escala, datos detallados del CMB y varias otras sondas de observación para probar sus modelos del universo a las escalas más grandes.
La astrofísica describe la evolución de estrellas, galaxias, cúmulos de galaxias, agujeros negros y otras estructuras en el universo, utilizando las leyes de la física. Como disciplina, se originó en el siglo XIX, cuando la espectroscopia se aplicó por primera vez al Sol (Boyd, Referencia Boyd, Boyd, Baerdemaeker, Heng y Matarese2023, 15-16). Este trabajo reveló por primera vez la aplicabilidad de la física nuclear a los interiores estelares. Hoy en día, la astrofísica tiene un alcance extremadamente amplio. Cubre una enorme gama de objetos y escalas, desde moléculas individuales en el medio interestelar hasta cúmulos de galaxias. Su objetivo principal es ofrecer explicaciones causales para las observaciones de objetos astrofísicos. A diferencia de la cosmología, no solo está interesada en objetos únicos, sino también en generalizaciones sobre tipos de objetos (en lugar de ejemplos simbólicos), desde estrellas de secuencia principal hasta galaxias espirales (Anderl, Referencia Anderl y Humphreys2016).
La astronomía es principalmente un ejercicio cartográfico, mapeando diferentes estructuras en el cielo. No se ocupa principalmente de ofrecer explicaciones causales basadas, por ejemplo, en lo que sucede en los interiores estelares, aunque sí ofrece la base observacional para gran parte de la cosmología y la astrofísica. Es una de las disciplinas científicas más antiguas, que se remonta a tiempos prehistóricos. Hoy en día, hemos entrado en la era de la astronomía multimensajero. Los astrónomos ya no están confinados a un solo tipo de señal, por ejemplo, las ondas electromagnéticas en el espectro óptico. En cambio, los astrónomos ahora estudian un rango muy amplio del espectro electromagnético, pero también estudian señales de neutrinos, ondas gravitacionales y rayos cósmicos (Abelson, Referencia Abelson2022b).
Los tres campos no solo difieren en el tema, sino también en términos de su investigación filosófica. Si bien la cosmología ha recibido una atención bastante constante por parte de los filósofos en las últimas dos décadas, la filosofía de la astrofísica es un campo mucho más joven. Y aunque es posible que algunos artículos en filosofía de la cosmología puedan calificar como filosofía de la astrofísica (por ejemplo, algunos trabajos en filosofía de la materia oscura), ese no será el caso para todos. En realidad, la filosofía de la astrofísica y la filosofía de la astronomía hasta ahora, incluso más que la filosofía de la cosmología, siguen siendo una mina sin explotar para la filosofía de la ciencia.
1.2 Algunos antecedentes científicos
Antes de profundizar en los debates filosóficos, será útil proporcionar algunos antecedentes científicos. Los ejemplos de física novedosa discutidos en las Secciones 2-4 están profundamente conectados con ΛCDM ("Materia oscura fría lambda"). el modelo de concordancia actual de la cosmología. ΛCDM utiliza la relatividad general (RG) en combinación con suposiciones de que el universo es homogéneo ("sin puntos especiales en el espacio-tiempo") e isotrópico ("sin direcciones preferidas") para describir la evolución del universo. Los supuestos combinados de homogeneidad e isotropía se conocen como el "Principio cosmológico" (véase la Sección 6.2.3).
Dado el Principio Cosmológico, que también implica que el tensor de tensión-energía es el de un fluido perfecto, el universo puede describirse mediante una métrica FLRW:
ds2=−dt2+a(t)dσ2 (1)
a(t) denota el factor de escala (adimensional). Está relacionado con el parámetro de Hubble, que mide la tasa de expansión del universo:
H(t)≡a´(t)/a(t) (2)
H0 es el valor actual del parámetro de Hubble. La evolución del factor de escala se describe mediante las ecuaciones de campo de Einstein, que, gracias a los supuestos de homogeneidad e isotropía, se simplifican a las ecuaciones de Friedman:
(a´/a)2=8πGρ/3−k/a2+Λ/3 (3)
3a´´/a=−4πG(ρ+3p)+Λ (4)
En estas ecuaciones, Λ es la constante cosmológica. La curvatura está representada por k. k=1 representa un universo cerrado, k=−1 un universo hiperbólico, y k=0 un universo plano, que ocurre cuando la densidad de energía del universo es igual a la densidad crítica ρcrit=3H2/8πG. p y p son la densidad y la presión habituales.
Las diferentes contribuciones al presupuesto energético del universo tienen un efecto diferente en la evolución del factor de escala. Esto se refleja en sus ecuaciones de estado, es decir, relaciones entre presión y densidad. El parámetro de la ecuación de estado w, definido en la ecuación de estado barotrópica como p = w , se puede utilizar para rastrear cómo las diferentes contribuciones de densidad de energía influyen en la evolución del factor de escala en las ecuaciones de Friedman:
Ρ ∝ a−3(1+w) (5)
Las ecuaciones de estado más importantes son las de la radiación (neutrinos y fotones; w = 1/3 ), materia (bariónica y oscura, que se supone que no tiene colisiones; w = 0 ) y energía oscura ( w = −1 ).
Los modelos FLRW ofrecen una descripción de primer orden de la evolución del universo a las escalas más grandes. Para tener en cuenta la formación de estructuras a gran escala, se introducen pequeñas perturbaciones de densidad primordial gaussianas invariantes casi a escala. Estos se detectan en el CMB como perturbaciones del orden de 10−5 , pero forman las semillas de lo que a través del colapso gravitacional se convierten en galaxias, cúmulos y supercúmulos. Una de las preguntas centrales de la cosmología del universo primitivo es qué formó estas perturbaciones de densidad primordiales. La respuesta principal desde la década de 1980 proviene de la inflación cósmica (discutida en la Sección 2).
Con el tiempo, ha quedado claro que para describir la evolución de la estructura a gran escala en el universo, el universo debe contener más que materia bariónica sola, es decir, materia que consta de tres quarks, como protones o neutrones. La mayor parte de la materia que los humanos encuentran en el día a día es bariónica. Sin embargo, el presupuesto actual de densidad de energía del universo también contiene aproximadamente un 27% de materia oscura y un 69% de energía oscura, además del 5% de materia bariónica (Colaboración Planck, Aghanim, et al. Colaboración de referencia, Aghanim y Akrami2020). Esto se refleja en el nombre del modelo de concordancia cosmológica actual: Λ se refiere a la energía oscura, CDM a la materia oscura (fría). La materia oscura (ver Sección 3) se comporta como una fuente adicional de colapso gravitacional, mientras que la energía oscura (ver Sección 4) es un término de marcador de posición para lo que causa la expansión acelerada del universo. Las observaciones actuales son compatibles con la densidad de energía total del universo igual a la densidad crítica, lo que sugiere que el universo es plano.
El éxito de Λ
El CDM como teoría de la formación de estructuras a gran escala es notable. Las predicciones derivadas a través de simulaciones por computadora (más sobre esto en la Sección 6) concuerdan con las observaciones de estructura a gran escala. Otra evidencia proviene de observaciones de abundancias de elementos correspondientes a predicciones basadas en la nucleosíntesis del Big Bang, la teoría de la formación de los elementos más ligeros en el universo primitivo. Es aún más notable la rapidez con la que se logró este éxito: el hecho de que el universo es más grande que la Vía Láctea solo se confirmó ampliamente en 1925, y el hecho de que se está expandiendo se estableció relativamente a fines de la década de 1920 y principios de la de 1930 (De Baerdemaeker y Schneider, Referencia De Baerdemaeker y Schneider2022). La primera unificación entre la masa faltante cosmológica y astrofísica (materia oscura) no ocurrió hasta la década de 1970 (de Swart, Referencia de Swart, Blum, Lalli y Renn2020, Referencia de Swart2022; de Swart, Bertone y van Dongen, Referencia de Swart, Bertone y van Dongen2017), la inflación cósmica se propuso por primera vez en las décadas de 1970 y 1980 (Guth, Referencia Guth1981), y la evidencia de supernova de la expansión acelerada del universo se descubrió en la década de 1990.
Podría decirse que la fuente más importante de evidencia empírica para la cosmología actual es el CMB. El CMB proporciona una instantánea del universo aproximadamente 380.000 años después del Big Bang. Se formó en la recombinación, cuando los núcleos atómicos y los electrones formaron átomos neutros, y los fotones se convirtieron en flujo libre. Desde la recombinación, estos fotones han estado fluyendo libremente por todo el universo. Aunque cambiaron al rojo debido a la expansión del universo, su espectro se ha mantenido sin cambios. Penzias y Wilson descubrieron el CMB en 1965 como un ruido de fondo ineliminable en su antena de radio. En ese momento, esta evidencia jugó un papel crucial en el establecimiento de la cosmología del Big Bang sobre la teoría rival del estado estacionario (aunque ver Ćirković y Perović Referencia Ćirković y Perović2018, para matices a la narrativa común). En la década de 1990, el satélite COBE permitió a los científicos establecer por primera vez que el CMB tenía un espectro perfecto de cuerpo negro. La mayor sensibilidad de los satélites de seguimiento WMAP y Planck permitió a los cosmólogos detectar las ligeras anisotropías en el CMB y trazar un mapa de su espectro de potencia completo. Hoy en día, los valores precisos de los seis parámetros libres de la Λ.
El modelo CDM (además de la densidad de materia oscura y la densidad de materia bariónica, también la edad del universo, el índice espectral escalar, la amplitud de fluctuación de la curvatura y la profundidad óptica de reionización) están determinados por los resultados de Planck de la década de 2010 (Planck Collaboration, Aghanim, et al. Colaboración de referencia, Aghanim y Akrami2020).
Dada la naturaleza reciente de la mayor parte de lo que, hoy en día, se considera "conocimiento establecido en cosmología", no debería sorprender que haya muchas preguntas abiertas. Algunos de ellos volverán en las siguientes secciones. ¿Cuál es la naturaleza de la materia oscura? ¿Qué causa la expansión acelerada del universo? Y, el enfoque de la siguiente sección, ¿de dónde provienen las fluctuaciones de densidad primordiales reveladas por el CMB?
2 Inflación cósmica
Dadas las escalas de energía del universo inmediatamente después del Big Bang, se espera que la física que gobierna el universo primitivo sea bastante diferente a la que gobierna las etapas posteriores. Los cosmólogos pueden suponer de manera muy conservadora que las teorías actuales de la física de partículas se aplican al universo desde la nucleosíntesis del Big Bang en adelante, porque el universo se había expandido y enfriado lo suficiente en ese momento. Pero no hay bases inductivas para extrapolaciones de la física de alta energía a algunas de las eras más tempranas, y se espera que la RG también se rompa en algún momento del universo primitivo. Como era de esperar, entonces, esta era presenta múltiples acertijos (Smeenk, Referencia Smeenk, Chamcham, Silk, Barrow y Saunders2017).
Una teoría prominente para el universo primitivo que pretende explicar de dónde se originan las fluctuaciones de densidad primordiales reveladas por el CMB es la inflación cósmica. La inflación postula que el universo primitivo experimentó una era de expansión acelerada. Esta fase de expansión fue impulsada por un nuevo tipo de campo, el campo inflatón (las especulaciones iniciales de que el campo Higgs podría alimentar la expansión inflacionaria se abandonaron rápidamente), cuyo comportamiento se rige por el potencial inflonado. Al final de la fase inflacionaria, el inflatón se descompuso en el contenido de materia-energía más familiar del universo, que luego evolucionó de acuerdo con las descripciones estándar de Λ. Este proceso se conoce de manera algo confusa como "recalentamiento".
Desde sus inicios, la inflación recibió una amplia aceptación en la comunidad cosmológica con bastante rapidez.Nota a pie de página2 Los filósofos todavía están lidiando con si esta rápida aceptación fue autorizada epistémicamente. El principal desafío es: ¿cómo podemos confirmar una teoría del universo primitivo, dado que postula una física novedosa y que el acceso empírico a ese universo primitivo se limita a observaciones de efectos posteriores? Este desafío se complica por el hecho de que la inflación no resolvió ninguna anomalía empírica para el modelo Hot Big Bang vigente en ese momentoNota a pie de página3, a diferencia de la materia oscura y la energía oscura. Se han ofrecido dos argumentos principales a favor de la inflación: la inflación resuelve los problemas de ajuste fino (Sección 2.1) y la inflación siembra la formación de estructuras (Sección 2.2). Ambos vienen con advertencias y preguntas abiertas. Tomemos cada uno por separado, antes de considerar algunas implicaciones metafísicas (Sección 2.3).
2.1 El caso inicial de la inflación: problemas de ajuste fino
La motivación original detrás de la inflación era resolver varios problemas de ajuste fino dentro de nuestro universo (Guth, Referencia Guth1981): el problema de la planitud, el problema del horizonte y el problema del monopolo magnéticoNota a pie de página4. Estos problemas se refieren a características peculiares de nuestro universo, que, aunque no están en tensión con ninguna teoría física, son tan sorprendentes que parecen exigir una explicación.
Como McCoy (Referencia McCoy2015), si bien es fácil dar un brillo convincente a los problemas de planitud y horizonte, es mucho más difícil precisar con precisión cuál es exactamente la brecha explicativa que supuestamente llena la inflación. Por razones de espacio, restrinjo la discusión aquí a la glosa intuitivamente convincente de McCoy. Los lectores interesados en una discusión más detallada de los problemas de ajuste deben recurrir al artículo de McCoy y las referencias que contiene.
El problema de la planitud se refiere al hecho de que la curvatura espacial actual del universo parece ser (casi) cero. Sin embargo, la curvatura cero es un punto inestable: incluso la más mínima desviación de la planitud llevaría al universo a evolucionar hacia desviaciones cada vez mayores de la planitud. Dado su valor actual, la curvatura en el universo primitivo debe haber estado aún más cerca de cero. La inflación resolvería este problema porque la expansión exponencial del espacio suavizaría cualquier curvatura que estuviera presente antes de la época inflacionaria. Básicamente, restablecería el universo a casi plano.
El problema del horizonte se refiere a la notable uniformidad del universo tal como se observa en el CMB. Esta uniformidad sugiere que todo el universo observable debe haber estado en contacto causal para generar esta uniformidad (por ejemplo, alcanzando cierto equilibrio térmico) antes del desacoplamiento del CMB. Cualquier proceso de este tipo habría requerido que las diferentes regiones del universo observable estuvieran conectadas causalmente antes de la recombinación. Aquí está el truco: esto está en tensión directa con el hecho de que ciertas regiones del universo observable no han estado en contacto causal entre sí de acuerdo con los modelos regulares de universo en expansión. Debido a la velocidad finita de la luz, caen fuera de los horizontes de partículas de los demás. Sin asumir algún proceso novedoso en el universo primitivo que permitiera que estas regiones estuvieran en contacto causal, la homogeneidad del CMB solo podría explicarse por condiciones iniciales uniformes en todo el universo observable.
La inflación ofrece un proceso tan novedoso. La expansión exponencial del espacio durante la época inflacionaria haría que las regiones no uniformes del espacio se extendieran más allá de las escalas del horizonte de partículas. Por lo tanto, las diferentes regiones del CMB estaban en contacto causal antes de la época inflacionaria. Específicamente, formaban parte de una sola región que estaba en equilibrio antes de que comenzara la inflación, y que se extendió más allá del horizonte durante la inflación. Diferentes partes de esa región siguen volviendo a entrar en el horizonte después del recalentamiento, a medida que el universo continúa expandiéndose.
Independientemente de los detalles de los problemas de ajuste, uno podría preguntarse si es necesario un nuevo proceso físico para explicarlos. ¿No podrían resolverse refiriéndose a las condiciones iniciales del universo primitivo? La explicación entonces es que el universo parece estar bien ajustado porque tenía condiciones iniciales peculiares que evolucionaron hacia adelante. Después de todo, muchas explicaciones estándar en física combinan condiciones iniciales con leyes de la naturaleza para explicar un estado físico observado de un sistema (Earman y Mosterin, Referencia Earman y Mosterin1999; Mccoy Referencia McCoy2015).
En cosmología, sin embargo, referirse a las condiciones iniciales del universo tiende a ser insatisfactorio. Pragmáticamente, las condiciones iniciales son una especie de callejón sin salida para la investigación (la importancia de esta consideración pragmática en la elección de la teoría también es destacada por Wolf y Thébault Referencia Wolf y Thébault2023). Equivalen a hechos brutos que deben aceptarse al pie de la letra. Pero el universo primitivo es uno de los únicos regímenes en los que podríamos encontrar rastros observables de la física a escala de Planck o teorías de la gravedad cuántica (Schneider, Referencia Schneider2021, Referencia Schneider2023). Por lo tanto, recurrir a las condiciones iniciales equivale a cerrar toda una vía de investigación. En relación con esto, hay una diferencia entre las condiciones iniciales del universo y otros sistemas físicos: para otros sistemas físicos, generalmente podemos explicar de dónde provienen las condiciones iniciales ("la pelota está en la cima de la colina en reposo porque la puse allí"). No hay análogo para esto en el caso del universo, entonces, ¿qué explica esas condiciones iniciales? Earman y Mosterin (Referencia Earman y Mosterin1999) por lo tanto, identifican el hecho de que la inflación permitió a los científicos hacer preguntas sobre el universo primitivo como uno de los factores sociológicos que condujeron a su rápida propagación. Finalmente, la ruta de las condiciones iniciales está incompleta porque no revela dónde se supone que se imponen las condiciones iniciales. ¿A la escala de Planck? ¿Anterior? ¿Más tarde? A la luz de todo esto, una explicación dinámica que haga que las características desconcertantes (o las condiciones iniciales) sean genéricas (de una manera que se especificará más adelante) sería al menos pragmáticamente preferible. La inflación pretende ofrecer precisamente esa explicación dinámica.
Sin embargo, las razones pragmáticas no siempre se aceptan como motivos para la confirmación epistémica. Si rechazamos la explicación de las condiciones iniciales basada en motivos pragmáticos, ¿significa eso que la inflación puede confirmarse epistémicamente en función de su resolución de problemas de ajuste fino? Hay algunas razones para dudar.
Los problemas de ajuste fino consisten en características del universo observable que no están prohibidas ni en tensión con el modelo estándar de cosmología, pero que, sin embargo, sorprenden a los físicos como "improbables", "sorprendentes" o "improbables" si su explicación se limita a condiciones iniciales específicas. En otras palabras, no existe una anomalía empírica estricta que la inflación pretenda resolver aquí. Más bien, la planitud y uniformidad observadas del universo requieren condiciones iniciales muy específicas, y los físicos consideran poco probable que nuestro universo tenga exactamente esas condiciones iniciales del conjunto mucho más amplio de todas las condiciones iniciales posibles. La inflación supuestamente resuelve los problemas de ajuste fino al ofrecer una explicación dinámica: la dinámica de la inflación es tal que el universo, independientemente de sus condiciones iniciales antes de que se produjera la inflación, conduciría genéricamente a un universo con las características "sorprendentes" observadas de nuestro universo.
Si bien es intuitivamente convincente, hay algunos problemas. En primer lugar, está la pregunta abierta de si la inflación sufre un problema de condiciones iniciales en sí misma. No está claro si todos los modelos de inflación pueden activarse independientemente de las condiciones iniciales anteriores (Brandenberger, Referencia Brandenberger2017). En segundo lugar, McCoy (Referencia McCoy2015) señala que ir más allá de la intuición para identificar dónde radica el problema exacto es una tarea difícil, pero esto es esencial para que la inflación obtenga confirmación de la solución de los problemas de ajuste. Para considerar adecuadamente los problemas de ajuste fino como "problemas", es necesario responder a dos preguntas: (i) ¿por qué son especiales estas condiciones iniciales?; y, (ii) ¿por qué son problemáticas tales condiciones iniciales especiales? McCoy encuentra plausible que para los problemas de planitud y horizonte, (i) pueda responderse. El problema del horizonte podría considerarse "especial" porque requiere un grado máximo de simetría, por ejemplo, mientras que el problema de la planitud requiere una inestabilidad dinámica como condición inicial.
Pero solo señalar que las condiciones iniciales del universo son especiales es insuficiente para que constituyan un problema. A veces, los sistemas simplemente tienen condiciones iniciales peculiares. Mientras estos no estén en tensión con la teoría aplicable, no está claro que haya un problema por resolver. ¿Qué requeriría eso? McCoy ve dos posibilidades. Una razón sería que estas condiciones iniciales especiales son de alguna manera improbables. Hacer este caso requiere definir una medida de probabilidad físicamente significativa (aproximadamente, una función que asigna valores de probabilidad a todos los miembros de un conjunto y con un valor total de 1) sobre todas las condiciones iniciales. Esto aún no se ha hecho: tanto la definición del espacio de posibilidades como la definición de una medida de probabilidad significativa sobre ese espacio resultan no ser triviales (véase, por ejemplo, McCoy Referencia McCoy2017, para una opinión crítica sobre una medida candidata). A lo sumo, esta ruta conduce a una promesa de un problema, no a una formulación del problema real, y el camino intermedio está plagado de obstáculos.
Otra razón para considerar que los problemas de ajuste fino son anomalías genuinas es que las condiciones iniciales de alguna manera no son explicativas en sí mismas. Por ejemplo, Wolf y Thébault (Referencia Wolf y Thébault2023) argumentan que la naturaleza problemática de las condiciones iniciales puede ser aprovechada en términos de profundidad explicativa. Pero aquí, McCoy (Referencia McCoy2015) señala que no es evidente que los requisitos iniciales especiales no sean por defecto explicativos. Como se mencionó anteriormente, múltiples explicaciones filosóficas, incluidas las deductivo-nomológicas o varias causales, incluyen explícitamente las condiciones iniciales en los explanans. No está claro por qué la "especialidad" de las condiciones iniciales las haría menos explicativas. Las condiciones iniciales especiales pueden servir como guía para futuras investigaciones, pero una teoría que las haga genéricas no implica confirmación.Nota a pie de página5
¿Qué implica esto para el estado de la inflación (clásica)? No mucho, en el sentido de que la inflación sigue siendo consistente con las características ajustadas del universo observable. En otras palabras, no significa que la inflación sea ahora una teoría en crisis, enfrentada a anomalías. Sin embargo, sí significa que, si bien el ajuste fino puede haber sido una motivación pragmática fina, la resolución de problemas de ajuste fino de la inflación no confiere necesariamente ninguna confirmación de la teoría. Aquí es donde entra en juego la formación de estructuras.
2.2 El caso actual de la inflación: formación de estructuras
Inmediatamente después del artículo seminal de Guth, surgió un nuevo argumento mucho más fuerte a favor de la inflación. En la década de 1970, los cosmólogos se habían reunido en un modelo fenomenológico para el espectro de perturbaciones de densidad inicial que proporcionó las semillas para la estructura observada a gran escala. El espectro de Harrison-Peebles-Zel'dovich es uno de perturbaciones gaussianas pequeñas, adiabáticas, casi invariantes a escala, ligeramente inclinadas hacia el rojo. Pero el origen de estas perturbaciones seguía siendo desconocido. Los científicos pronto se dieron cuenta de que las fluctuaciones cuánticas en el campo de inflatón podrían producir un espectro con las propiedades requeridas (Guth y Pi, Referencia Guth y Pi1982).
La predicción del CMB todavía se considera el argumento más fuerte a favor de la inflación. Si bien el espectro de potencia, al igual que los problemas de horizonte y planitud, es en última instancia un problema de condiciones iniciales, proporciona una prueba más severa para las predicciones de inflación debido a las propiedades más específicas del espectro de potencia. Este éxito empírico también ha sido importante para el desarrollo posterior de la inflación como teoría: a medida que se revelan más detalles sobre las perturbaciones de la densidad primordial mediante mejores observaciones del CMB, se imponen más restricciones sobre la naturaleza del campo de inflatón y la forma del potencial de inflatón (Colaboración Planck, Akrami, et al. Colaboración de referencia, Akrami y Arroja2020).
Sin embargo, a pesar de este nuevo caso a favor de la inflación, la controversia permanece y las teorías rivales para el universo primitivo no se descartan. Una de las razones es que la predicción de la inflación del espectro de potencia del CMB adolece del llamado "problema transplanckiano", introducido por primera vez por Martin y Brandenberger (Referencia Martin y Brandenberger2001). El problema transplanckiano se reduce a una falla en la separación de escalas, de modo que los modos en y más allá de la escala de Planck se vuelven relevantes para la predicción del espectro de potencia.Nota a pie de página6
Otra razón es que existe un desacuerdo sobre qué requisitos deben imponerse a una teoría del universo primitivo y qué tan bien los satisface la inflación. Como veremos a continuación, muchas de las discusiones se basan implícita o explícitamente en el trabajo de Popper sobre el problema de la demarcación, según el cual la falsabilidad es una propiedad necesaria de cualquier teoría científica. Además, Popper advirtió el uso de cambios ad hoc en las teorías científicas para acomodar datos recalcitrantes. Resulta, sin embargo, que la línea entre la predicción novedosa y la mera acomodación es difícil de trazar en el contexto de la cosmología inflacionaria.
El desacuerdo sobre el estado científico de la inflación llegó a un punto crítico en 2017, cuando en las páginas de Scientific American dos bandos luchaban sobre el estado de la inflación como hipótesis científica (Guth et al., Referencia Guth, Kaiser y Linde2017; Ijjas, Steinhardt, & Loeb, Referencia Ijjas, Steinhardt y Loeb2017).Nota a pie de página7 Se presentaron varios cargos contra la inflación, el más mordaz es que la inflación no es falsable (o generalmente no comprobable) y, por lo tanto, no es científica. Por lo tanto, a pesar de su éxito empírico, vale la pena examinar la naturaleza de la inflación como teoría científica con más detalle. ¿En qué se basa esta crítica de la infalsificabilidad?
2.2.1 Inflación eterna
Un estímulo importante para las acusaciones de que la teoría no es científica es que la teoría de la inflación ha visto algunos desarrollos interesantes. La breve introducción no técnica al comienzo de esta sección fue muy fiel a la propuesta original de Guth. En los últimos cuarenta años, sin embargo, el desarrollo de esta idea ha puesto de relieve algunas características peculiares.
Primero está la idea de que la inflación puede conducir a la llamada inflación eterna. Esto a veces se denomina un resultado "genérico" de la inflación, aunque Smeenk (Referencia Smeenk2014) señala que las sugerencias cualitativas sobre el mecanismo que subyace a la inflación eterna no son fácilmente precisas. De todos modos, la idea básica es que, a nivel mundial, la inflación continúa indefinidamente, mientras que puede terminar localmente en regiones que posteriormente se cierran causalmente entre sí y forman efectivamente universos de bolsillo. Y debido a que la inflación continúa a nivel mundial, es de esperar que haya infinitos universos de bolsillo, todos con valores de parámetros posiblemente diferentes de nuestro universo para constantes fundamentales, densidades de masa, etc. Como dijo Guth:
[En] un universo eternamente inflado, cualquier cosa que pueda suceder sucederá; de hecho, sucederá un número infinito de veces. Por lo tanto, la cuestión de lo que es posible se vuelve trivial: todo es posible, a menos que viole alguna ley de conservación absoluta. (Guth, Referencia Guth2007, 6819)
Nuestro universo se convierte entonces en uno solo en un conjunto infinito de universos que pueden ser extremadamente similares, pero también extremadamente diferentes del nuestro. ¿Qué implica eso para el poder predictivo de la inflación?
Los críticos de la inflación consideran que esta situación es bastante grave: Ijjas et al. (Referencia Ijjas, Steinhardt y Loeb2017, 39) se refieren al multiverso inflacionario como un "multilío". Los defensores de la inflación tienen más esperanzas. El propio Guth ya destaca el elemento crucial en la continuación de la cita anterior: "Para extraer predicciones de la teoría, debemos aprender a distinguir lo probable de lo improbable" (Guth, Referencia Guth2007, 6819). La idea es la siguiente. Debido a que el multiverso inflacionario predice que "cualquier cosa puede suceder", la teoría ya no puede evaluarse en función de predicciones específicas de que sucederá una cosa en lugar de otra. La siguiente mejor opción es evaluar cuáles son los valores de los parámetros que la teoría predice que se observarán genéricamente, lo que un "observador típico" en el multiverso esperaría observar para su universo de bolsillo. Si se espera que un observador típico observe un universo como el nuestro, entonces las predicciones de inflación eterna aún se confirman a pesar del hecho de que vivimos en un multiverso infinito.
Smeenk (Referencia Smeenk2014) muestra que esta no es una tarea fácil. Es necesario que haya una distribución de probabilidad entre los diferentes universos de bolsillo para poder hacer declaraciones probabilísticas. Esto nos lleva de vuelta al problema de la medida: definir tal distribución de probabilidad requiere un conjunto bien definido con una medida de probabilidad apropiada definida en ella. Pero el conjunto de universos de bolsillo es infinito y no hay consenso sobre una medida apropiada en el multiverso inflacionario. Incluso si se pudiera encontrar tal medida, no es obvio que permita evaluaciones probabilísticas para un «observador típico»: es necesario argumentar el vínculo entre la medida y la distribución de probabilidad.
Ahora bien, se puede pensar que el problema de la medición no tiene por qué ser un golpe fatal al poder predictivo de la inflación eterna. Si los físicos presentan una medida y una distribución de probabilidad adecuadas, la inflación eterna sería predictiva una vez más. Norton (Referencia Norton2021) cree que esto es dudoso. Norton argumenta que no se puede suponer que la incertidumbre en la teoría de la inflación eterna pueda representarse probabilísticamente, esto depende de los detalles de la teoría (o, en palabras de Norton, de los "hechos de fondo"). En el caso de la inflación, los hechos de fondo no justifican una representación probabilística de la "oportunidad" de un universo como el nuestro en el multiverso inflacionario. Más bien, se aplica la lógica de una lotería infinita. Desafortunadamente para la inflación eterna, el poder predictivo de la lógica inductiva de las loterías infinitas no es tan fuerte como el de la lógica probabilística. Esto se debe a que, según Norton, "prácticamente todas las distribuciones posibles de las propiedades [como nuestro universo] y [a diferencia de nuestro universo] tienen la misma oportunidad" (Referencia Norton2021, S3867). Cuando se trata de argumentar que nuestro universo es "genérico" o "esperado", la lógica de la lotería infinita no resuelve el problema de predicción de la inflación eterna.
¿La falta de una medida adecuada significa que la inflación eterna se pierde en un "multilío" para siempre? No necesariamente. Guth et al. (Referencia Guth, Kaiser y Linde2017, 6) afirman que:
Si la imagen del multiverso es válida, entonces el Modelo Estándar se entendería correctamente como una descripción de la física en nuestro universo visible, y de manera similar, los modelos de inflación que están siendo refinados por las observaciones actuales describirían las formas en que la inflación puede ocurrir en nuestra parte particular del universo.
Una forma de darle sentido a esto es recordar las predicciones exitosas que la inflación hizo para el CMB.Nota a pie de página8 Esta fue una predicción empírica del marco para nuestro universo observable. Si bien la inflación no puede predecir los valores de los parámetros observados en nuestro universo sin una medida, aún puede predecir otras características del universo y guardar silencio sobre lo que sucede en un "universo genérico".
2.2.2 Modelos y teoría
Por supuesto, la inflación solo puede esperar hacer predicciones para nuestro universo si la teoría es lo suficientemente específica. Esto me lleva a un segundo problema: el hecho de que el marco teórico de la inflación es muy permisivo con respecto al campo de inflatón y la forma del potencial de inflatón. Guth originalmente creía que el campo de inflatón podría ser el campo de Higgs aún no encontrado, pero esta idea fue refutada rápidamente. El campo inflatón es un nuevo tipo de campo escalar, su comportamiento está limitado principalmente por tener que generar el espectro de potencia del CMB.
Las observaciones del CMB han limitado los modelos permitidos a favorecer ahora la llamada inflación lenta. La inflación de rodadura lenta postula que el campo de inflatón comenzó su evolución en una meseta del potencial, después de lo cual rodó lentamente hacia abajo para oscilar alrededor de un mínimo. Pero incluso dentro de la inflación lenta, el espacio de parámetros permitido es bastante grande. En su libro de texto seminal sobre el universo primitivo, Kolb y Turner (Referencia Kolb y Turner1990, 313) se refieren a la inflación como "un paradigma en busca de un modelo".
Dawid y McCoy (Referencia Dawid y McCoy2023) muestran que la flexibilidad del modelo de la cosmología inflacionaria se encuentra en el centro de la disputa científica de alto perfil en la década de 2010. La principal crítica a la inflación de Ijjas et al. (Referencia Ijjas, Steinhardt y Loeb2014, Referencia Ijjas, Steinhardt y Loeb2017) es que la inflación no es comprobable debido a su flexibilidad:
El resultado esperado de la inflación puede cambiar fácilmente si variamos las condiciones iniciales, cambiamos la forma de la curva de densidad de energía inflacionaria o simplemente observamos que conduce a una inflación eterna y a un desastre múltiple. Individual y colectivamente, estas características hacen que la inflación sea tan flexible que ningún experimento puede refutarla. (Ijjas et al., Referencia Ijjas, Steinhardt y Loeb2017, 39)
Debido a que el espacio modelo de la inflación está tan mal restringido, cualquier modelo que se excluya no afectará el estado de la inflación cósmica como teoría. Ijjas et al. argumentan que la incomprobabilidad de la teoría inflacionaria, a pesar de la comprobabilidad de los modelos individuales, implica que la inflación cósmica está en desacuerdo con el método científico.
Como era de esperar, esta afirmación (implícita) de no cientificidad jugó un papel importante en provocar una respuesta de los científicos que trabajan en la inflación. Llamar a la inflación cósmica no científica descarta el trabajo de cientos de científicos de buena fe. En respuesta a la crítica de la inestabilidad, los defensores de la inflación argumentan que "la comprobabilidad de una teoría de ninguna manera requiere que todas sus predicciones sean independientes de la elección de parámetros" (Guth et al., Referencia Guth, Kaiser y Linde2017). En otras palabras, la flexibilidad reclamada en términos de condiciones iniciales y potenciales de inflatón no es diferente de la flexibilidad otorgada a muchas otras teorías de la física (después de todo, el Modelo Estándar de la física de partículas también tiene diecinueve parámetros libres).
Dawid y McCoy (Referencia Dawid y McCoy2023) analizan este desacuerdo en términos de diferentes puntos de vista sobre la prueba de la teoría. Tanto los críticos como los defensores de la inflación cósmica están de acuerdo en que la inflación es empíricamente adecuada con respecto a los datos del CMB. El desacuerdo, sin embargo, es sobre si esa adecuación empírica se debe o no a una mera acomodación ad hoc. Dawid y McCoy identifican la crítica de Ijjas et al. con una visión estricta sobre la capacidad de prueba: la teoría debe estar completamente especificada antes de que se puedan realizar pruebas empíricas. Si la teoría no se ha especificado completamente, implica que su adecuación empírica se debe a la acomodación.
Los defensores de la inflación no están de acuerdo. Dawid y McCoy ven esta defensa como un reflejo de una visión más basada en el proceso sobre el desarrollo y la prueba de teorías, donde la comparación de modelos de una teoría con datos puede ser parte de la especificación de la teoría. En particular, debido al régimen desconocido en el que tuvo lugar la cosmología inflacionaria y debido a que el inflatón es un campo novedoso, existen restricciones teóricas limitadas sobre la inflación. Por lo tanto, no es sorprendente que los científicos busquen orientación empírica. La extensa construcción de modelos y la posterior prueba de modelos es parte de un esfuerzo por desarrollar la teoría inflacionaria. La inflación está, en otras palabras, en una "fase constructiva de razonamiento eliminativo" (Dawid y McCoy, Referencia Dawid y McCoy2023, 14), en lugar de una fase de acomodación ad hoc. El objetivo de esa fase constructiva no es elegir "el" modelo correcto de inflación, sino desarrollar la teoría y, en última instancia, fundamentar la cosmología inflacionaria en la física fundamental. Según esta defensa, es demasiado pronto para emitir un veredicto final sobre la inflación, y no está claro cuándo será apropiado ese veredicto final.
Esta respuesta plantea una nueva pregunta para Dawid y McCoy: ¿en qué momento la fase constructiva se ha prolongado demasiado? En otras palabras, ¿en qué momento ya no está justificado seguir una teoría sin tener buenas razones para creer que la teoría es prometedora? Dawid y McCoy sugieren que hay un caso epistémico para la confianza significativa actual en la viabilidad de la inflación como teoría en términos de evaluación de la teoría metaempírica. Sin embargo, Wolf (Lobo de referencia2024) argumenta que el caso metaempírico de la inflación falla debido a la falta de un argumento metainductivo. Y mientras Smeenk (Referencia Smeenk, Dardashti, Dawid y Thébault2019) está de acuerdo con Dawid y McCoy en una evaluación a largo plazo de las teorías científicas, Smeenk argumenta en contra de la persecución de la inflación debido a su alejamiento de la física de partículas y los problemas con la inflación eterna.
2.2.3 La cosmología del universo primitivo como ciencia histórica
Está claro en la sección anterior que no se ha dicho la última palabra sobre el estado de la inflación cósmica. Esto se debe en gran parte al peculiar contexto epistémico en el que tiene lugar la cosmología del universo primitivo. Un aspecto destacado sobre el que quiero reflexionar más a fondo es que la investigación del universo temprano tiene como objetivo reconstruir el pasado profundo basándose en observaciones contemporáneas limitadas de reliquias de ese pasado. Esto recuerda a las ciencias históricas en general, es decir, campos científicos que tienen como objetivo reconstruir el pasado profundo, como la arqueología o la paleontología.
Según Cleland (Referencia Cleland2002) (véase también Anderl Referencia Anderl y Humphreys2016), la ciencia histórica estereotipada tiende a basarse en un razonamiento del tipo "pistola humeante". La idea es la siguiente: en las ciencias históricas, los científicos solo tienen acceso a rastros, es decir, los resultados de una cadena causal, y tienen que confiar en esos rastros para reconstruir esa cadena causal. Dado un conjunto de rastros locales, los científicos históricos pueden plantear hipótesis de explicaciones que unifican ese conjunto bajo una historia causal. Dado que a menudo habría más de una explicación posible, la subdeterminación local tendría que romperse a través de las llamadas "pistolas humeantes", observaciones de rastreo que discriminan entre las hipótesis en competencia.
Esta imagen de las ciencias históricas ha sido matizada por Currie (Referencia Currie2015, Referencia Currie2018), quien argumenta que las ciencias históricas son "omnívoras metodológicas" y se basan en "andamios de investigación". La omnívora metodológica se refiere al hecho de que los científicos utilizarán cualquier método disponible para generar líneas de evidencia independientes para su objetivo elegido, más allá de los rastros disponibles. Esto puede variar desde el uso de modelos analógicos y simulaciones por computadora hasta la reconstrucción de un contexto causal particular lo más fielmente posible. El andamiaje de investigación se refiere al hecho de que los científicos a menudo solo se dan cuenta de que cierta evidencia es relevante para su investigación de un objetivo en particular una vez que han generado un modelo inicial crudo de ese objetivo. Ese modelo se convierte en un punto de partida para futuras investigaciones. Debido a que la metodología de las ciencias históricas es mucho más rica de lo que a menudo se reconoce, Currie cree que generalmente podemos ser optimistas sobre el potencial epistémico de estas disciplinas.
En general, simpatizo con esta imagen ampliada de las ciencias históricas. Sin embargo, hay características de la cosmología del universo temprano que prohíben el tipo de omnívoro metodológico y andamiaje de investigación descrito por Currie. La posibilidad de la omnívora metodológica requiere una base teórica sólida. Solo es posible generar evidencia empírica que sea relevante para el pasado profundo si se puede suponer que esa evidencia es representativa de ese pasado profundo. Por ejemplo, los experimentos Kon-Tiki, las recreaciones contemporáneas de viajes marítimos pasados (Novick et al., Referencia Novick, Currie, McQueen y Brouwer2020), solo son epistémicamente fructíferas porque hay suficiente conocimiento teórico sobre dónde se encuentran las islas, cómo han cambiado los patrones climáticos con el tiempo y qué materiales estaban disponibles para los buques marítimos. Del mismo modo, el andamiaje de investigación requiere un punto de partida sobre el que construir el andamio.
Esta base teórica falta en el caso de la cosmología del universo primitivo. Como se mencionó anteriormente, hay poca orientación teórica para la física en el universo primitivo. De hecho, en defensa de la inflación, Guth, Kaiser y Nomura (Referencia Guth, Kaiser y Nomura2014, 113) afirman que es "totalmente inapropiado juzgar la inflación por lo bien que encaja con las ideas especulativas de alguien sobre la física a escala de Planck", y continúan diciendo que es difícil evaluar qué supuestos pueden ser "razonables" entre la física inflacionaria y la física a escala de Planck. En otras palabras, las escalas de energía en el universo primitivo están tan alejadas de las escalas donde se aplican las teorías actuales de la física, que no podemos confiar en esas teorías como bases inductivas para inferencias sobre el universo primitivo. Por lo tanto, tampoco es obvio cómo podríamos "recrear" plausiblemente las condiciones del universo primitivo en un laboratorio hoy.Nota a pie de página9
¿Qué implica esto para la cosmología del universo primitivo? Los dos factores anteriores parecen limitar severamente los recursos epistémicos disponibles. Esto implica además que la función de Currie (Referencia Currie2018) El optimismo sobre la epistemología de las ciencias históricas puede no extenderse fácilmente a la cosmología del universo primitivo en el sentido de que, aunque los cosmólogos han podido desarrollar muchos escenarios sobre el universo primitivo, las herramientas disponibles para discriminar entre ellos son limitadas. Por lo tanto, no debería sorprender que lo que Dawid y McCoy llaman la fase constructiva de la cosmología inflacionaria siga en curso sin un final claro a la vista.
¿Significa esto que la cosmología del universo primitivo está condenada para siempre a la construcción de modelos y a escenarios de cómo posiblemente? No necesariamente. Cada modelo o teoría que se elimina en función de las observaciones del CMB es un paso hacia una mejor comprensión del universo primitivo. Además, todavía hay una estrategia inferencial disponible que podría conducir a un progreso más rápido: el razonamiento de tipo pistola humeante de Cleland. Por ejemplo, el hecho de no detectar fuertes desviaciones de la gaussianidad en la publicación de datos de Planck de 2013 significó un golpe significativo para los llamados modelos de universo ekpirótico, una alternativa a la inflación (Planck Collaboration et al., Colaboración de referencia, Ade, Aghanim y Armitage-Caplan2014). De manera similar, las ondas gravitacionales primordiales podrían proporcionar una fuerte evidencia a favor de la inflación, aunque el caso es más complicado de lo que comúnmente se sugiere (Brandenberger, Referencia Brandenberger2019). Por lo tanto, si se puede encontrar una pistola humeante para la inflación, habrá buenas razones para preferir la inflación sobre otros escenarios para el universo primitivo, y viceversa.
2.3 Realismo multiverso
Para concluir la discusión de la cosmología del universo primitivo, quiero pasar brevemente al realismo científico y la inflación. El realismo científico en general es un compromiso con la verdad (aproximada) de nuestras mejores teorías científicas y, por lo tanto, también con la existencia de los observables e inobservables que postulan (Chakravartty, Referencia Chakravartty y Edward2017). La cuestión del realismo sobre el multiverso inflacionario no se ha discutido en la literatura filosófica hasta ahora, pero eso no debería sorprender: puede parecer preventivo discutir las implicaciones metafísicas de la inflación antes de que la teoría en sí se desarrolle y se confirme aún más. Y, de hecho, dado el análisis anterior, parece prematuro comprometerse con la creencia en la existencia del multiverso inflacionario, independientemente de las tendencias de uno en otros lugares. No obstante, vale la pena considerar la inflación como un caso de prueba peculiar para el realismo científico.
Supongamos que se encuentra una pistola humeante a favor de la inflación y crece aún más el consenso científico de que la inflación es de hecho una teoría exitosa del universo primitivo. ¿Qué implica esto para el realista científico? ¿Está ahora comprometida a aceptar la realidad del multiverso inflacionario? En otras palabras, ¿está ahora comprometida a aceptar que, como dijo Guth, cualquier cosa que pueda suceder sucederá un número infinito de veces?
Permítanme explicar por qué la inflación presenta un rompecabezas para el debate realista.Nota a pie de página10 Cualquier confirmación empírica de la inflación provendría necesariamente de observaciones dentro de nuestro universo. La inflación implica genéricamente la inflación eterna, según la cual nuestro universo es solo uno en un multiverso infinito, pero donde estamos causalmente cerrados a todos los demás universos de bolsillo. Esto es lo que hace que el caso sea peculiar: la teoría excluye explícitamente cualquier cadena causal que sirva de puente entre otros universos de bolsillo y nuestro propio universo. Eso lo hace diferente de, digamos, las partículas subatómicas: si bien son inaccesibles a simple vista debido a las escalas de longitud asociadas, hay un caso realista de que podemos rastrear los efectos causales de estas partículas subatómicas a las señales de detector observadas. También lo diferencia de los organismos extintos, que son empíricamente inaccesibles debido a las escalas de tiempo asociadas. Con base en el registro fósil, todavía es posible construir una inferencia causal del registro fósil al organismo ahora extinto que sería suficiente para justificar un compromiso realista. Por el contrario, las observaciones del CMB pueden permitir una inferencia causal de las ondas gravitacionales primordiales a la existencia de un campo de inflatón y su fase inflacionaria asociada en el universo primitivo. Pero, ¿el compromiso con una fase inflacionaria en la evolución de nuestro universo implica automáticamente un compromiso con la existencia del multiverso inflacionario, un efecto causal diferente del campo inflatón, distinto de las ondas gravitacionales primordiales?
Me parece que varias versiones del realismo científico selectivo dudarían sobre esta inferencia. Estos puntos de vista solo están comprometidos con el realismo sobre partes específicas de nuestras mejores teorías científicas actuales, dejando así espacio para el cambio de teoría sin que este cambio de teoría afecte el compromiso realista. Por ejemplo, el realista explicacionista en la línea de Psillos (Referencia Psillos1999) está comprometida con la existencia de aquellas entidades que son indispensables para explicar el éxito predictivo de una teoría científica. No está claro de inmediato si el multiverso es indispensable de esa manera, ya que parece más un efecto secundario no deseado que un componente esencial de la inflación. Los realistas de entidades (por ejemplo, Hacking Piratería de referencias1983) están comprometidos con el realismo sobre las entidades en la medida en que pueden manipularlas para provocar otros efectos. Probablemente dudarían sobre el compromiso con el multiverso debido a la falta de acceso causal a él. Estos ejemplos sugieren que el compromiso con el multiverso no es una consecuencia necesaria de un compromiso realista más amplio con la inflación.
3 Materia oscura
Aparte de la inflación, hay dos ejemplos más de física genuinamente novedosa propuesta en cosmología, es decir, física que cae más allá del alcance de la combinación del modelo estándar de física de alta energía y relatividad general. Uno de ellos se llama energía oscura (discutido en la siguiente sección), el otro materia oscura. Juntos, son responsables del 95% de la densidad de energía actual del universo.
La materia oscura no es bariónica, lo que significa que no puede estar constituida por partículas formadas por tres quarks, es electromagnéticamente cercana a la neutra y se mueve lentamente en el contexto de la formación de estructuras a gran escala (Workman et al., Referencia Workman, Burkert y Crede2022). Los neutrinos del Modelo Estándar pueden constituir una pequeña fracción de la materia oscura en el universo, pero no califican como de movimiento lento (en otras palabras, como materia oscura "fría") y, por lo tanto, generalmente se tratan como una contribución separada a la densidad de energía del universo, además de la materia bariónica y la materia oscura fría. La gran mayoría de la materia oscura en nuestro universo tiene que estar constituida por algo novedoso, ya sean agujeros negros primordiales o partículas más allá del modelo estándar. A pesar de su naturaleza esquiva, hoy en día existe una amplia evidencia que respalda la existencia de la materia oscura. Primero ensayaré algunas de esas pruebas antes de profundizar en sus implicaciones filosóficas.
3.1 El caso de la materia oscura
A escalas de galaxias, las observaciones de Rubin de las curvas de rotación de galaxias planas fueron innovadoras (Rubin y Ford, Referencia Rubin y Ford1970). Suponiendo la distribución de masa observada de la materia luminosa, la dinámica newtoniana (la aproximación aplicable a la RG en escalas de galaxias) predice que la velocidad de rotación de las estrellas disminuirá con el aumento de la distancia desde el centro galáctico. Pero Rubin observó que la velocidad de las estrellas permanecía más o menos constante, independientemente de su distancia del centro. Las curvas de rotación, que trazan la velocidad de rotación en función de la distancia desde el centro galáctico, se llamaron "planas". Una forma de explicar estas observaciones es modificando la distribución de masa asumida en la galaxia: en lugar de solo tener en cuenta la materia luminosa, se podría introducir una fuente de masa adicional no luminosa, es decir, materia oscura.
A escalas de cúmulo, tanto las dispersiones de velocidad como las lentes gravitacionales proporcionan evidencia de la presencia de materia no luminosa adicional. En la década de 1930, Zwicky (Referencia Zwicky2009/1933) determinaron la dispersión de las velocidades de las galaxias en el cúmulo de Coma, es decir, la dispersión de las velocidades de las galaxias alrededor de la media. Zwicky descubrió que la dispersión era grande, demasiado grande para que el Cúmulo de Coma se mantuviera unido por la atracción gravitacional de la materia luminosa solamente. Al asumir la presencia de materia no luminosa, se puede explicar la estabilidad del Cúmulo de Coma como sistema gravitacional, a pesar de la gran dispersión de velocidad.
Mucho más recientemente, las observaciones del Cúmulo Bala se promocionaron en el título del artículo (!) como "una prueba empírica directa" de la existencia de materia oscura (Clowe et al., Referencia Clowe, Bradac y González2006). El cúmulo bala es en realidad un evento de colisión entre dos cúmulos de galaxias, donde uno se asemeja a una bala que se mueve a través del otro, de ahí el nombre. Los observadores utilizaron observaciones de rayos X para determinar la distribución de la materia luminosa. Trazaron un mapa de la distribución de masa gravitacional utilizando fuertes lentes gravitacionales de las galaxias de fondo por el Cúmulo Bala. Los dos no se alinearon entre sí. Clowe et al. concluyeron que debe haber alguna materia gravitante adicional no luminosa presente para explicar esta desalineación.Nota a pie de página11
Finalmente, a escalas cósmicas, el éxito de Λ
El MDL como modelo de formación de estructuras a gran escala depende crucialmente de postular la existencia de materia oscura fría. Una línea de evidencia proviene del CMB. El espectro de potencia del CMB es diferente sensible a la presencia de materia oscura y materia bariónica. El tercer pico en particular impone restricciones estrictas a la densidad de materia oscura ΩDM (Colaboración Planck, Aghanim, et al. Colaboración de referencia, Aghanim y Akrami2020). Otra evidencia proviene de las Oscilaciones Acústicas Bariónicas (BAO), es decir, oscilaciones en la densidad de materia en el universo como resultado de contrarrestar la influencia del colapso gravitacional y la presión de radiación hacia afuera (Eisenstein et al., Referencia Eisenstein, Zehavi y Hogg2005). Son detectables como una escala de longitud preferencial en la que las galaxias están separadas entre sí. Debido a que la materia oscura solo está sujeta al colapso gravitacional y no a la presión de radiación, contribuye a la formación de galaxias más fuerte que lo que sería el resultado de la materia bariónica sola. Líneas de evidencia similares también provienen de la nucleosíntesis del Big Bang y de la formación de estructuras a gran escala. En todos los casos, explicar las observaciones requiere más materia gravitante y mínimamente interactiva presente de lo que la materia bariónica puede explicar.
El caso cosmológico y astrofísico de la materia oscura es claramente fuerte. No obstante, quedan muchos candidatos en lo que respecta a los componentes de la materia oscura, que van desde agujeros negros primordiales sobre parejas supersimétricas hasta axiones. Muchos esperan que la materia oscura proporcione una ventana a la física más allá del Modelo Estándar de la física de partículas, pero hasta el momento, esto no se ha corroborado. Este no es solo un problema científico, sino también filosófico. Epistémicamente, existe la cuestión de cómo avanzar en la investigación de la materia oscura, dado que constituye una física genuinamente novedosa (Sección 3.3). Metafísicamente, no es obvio si el realista científico debe estar comprometido con la existencia de la materia oscura (Sección 3.4). Pero primero, permítanme pasar a una pregunta diferente, una en la que la mayoría de la filosofía de la materia oscura se ha centrado hasta ahora: ¿existe una subdeterminación genuina entre postular la existencia de la materia oscura y modificar la dinámica newtoniana?
3.2 Un enfoque filosófico peculiar
El consenso científico actual es que la materia oscura constituye aproximadamente el 27% de la densidad de energía actual del universo y que, en general, hay aproximadamente cinco veces más materia oscura fría no bariónica en el universo que materia bariónica. No obstante, una parte importante de la literatura filosófica sobre la materia oscura se centra en si existe o no una subdeterminación genuina entre dos hipótesis científicas: la materia oscura y la MOND, abreviatura de Dinámica Newtoniana ModificadaNota a pie de página12 (véase, por ejemplo, Jacquart Referencia Jacquart2021; Martens et al. Referencia Martens, Carretero Sahuquillo, Scholz, Lehmkuhl y Krämer2022; Massimi Referencia Massimi2018). De hecho, algunos artículos llegan a sugerir que MOND es "preferible" a la materia oscura, en contra del consenso científico (ver, por ejemplo, McGaugh Referencia McGaugh2015; Merritt Referencia Merritt2017, Referencia Merritt2020, Referencia Merritt2021; Milgrom Referencia Milgrom2020). Esto plantea una pregunta obvia: ¿se sostienen los argumentos filosóficos a favor de MOND? Responder afirmativamente a esta pregunta podría tener implicaciones significativas: implicaría que el fuerte consenso científico está equivocado.
MOND fue desarrollado a principios de la década de 1980 por Milgrom. Para comprender su atractivo original, es importante tener en cuenta que el caso empírico de la materia oscura no era tan fuerte entonces como lo es hoy: varias de las observaciones clave que ahora se ensayan como evidencia de materia oscura datan de después del año 2000. De hecho, la hipótesis de la materia oscura en sí misma solo ganó fuerza en la década de 1970. de Swart, Bertone y van Dongen (Referencia de Swart, Bertone y van Dongen2017) (véase también de Swart Referencia de Swart2022) argumentan que un paso crucial en la aceptación de la materia oscura se produjo en 1974, cuando se publicaron dos artículos consecutivos sobre la formación de estructuras a gran escala (Einasto, Kaasik y Saar) Referencia Einasto, Kaasik y Saar1974; Ostriker, Peebles y Yahil Referencia Ostriker, Peebles y Yahil1974). Por primera vez, estos artículos reunieron observaciones de formación de estructuras a gran escala, dispersiones de velocidad en cúmulos y curvas de rotación de galaxias para argumentar la existencia de materia oscura. La evidencia observacional se complementó con un argumento teórico: la materia oscura era necesaria para "cerrar el universo", y en ese momento se prefería un universo cerrado por motivos estéticos. La evidencia del CMB o las observaciones del Cúmulo Bala no estaban disponibles en la década de 1970 o 1980. Esto significa que, aunque ya había un buen caso para la materia oscura fría en la década de 1980, cuando Milgrom propuso MOND, el caso no estaba del todo cerrado.
Milgrom propuso MOND en gran medida en respuesta a las curvas de rotación planas anómalas (Bekenstein y Milgrom, Referencia Bekenstein y Milgrom1984; Milgrom, Referencia Milgrom1983a, Referencia Milgrom1983b, Referencia Milgrom1983c). Recuerde que la materia oscura representó las curvas de rotación planas cambiando la distribución de masa asumida. La propuesta de Milgrom era mantener intacta la distribución de masas, pero cambiar las leyes dinámicas que lo rigen. En otras palabras, la dinámica newtoniana se modificó a escalas galácticas, de ahí el nombre MOND.
Hoy en día, MOND ha sido desacreditado en gran medida por la mayoría de los científicos. Hay múltiples razones. Primero, como se discutió anteriormente, el caso empírico de la materia oscura es significativamente más fuerte hoy que en la década de 1980. Por el contrario, si bien MOND ha tenido éxito en la descripción de correlaciones fenomenológicas a escalas de galaxias, tiene dificultades para explicar fenómenos a escalas cosmológicas y de cúmulos. Esto está relacionado con la segunda razón: no existe una extensión relativista ampliamente aceptada de MOND que pueda reemplazar la relatividad general y sus éxitos empíricos.Nota a pie de página13 Peor aún, MOND requiere cambiar las leyes dinámicas probadas y comprobadas a una escala aparentemente arbitraria. Mientras tanto, la materia oscura no requiere modificación de las teorías fundamentales de la física y es compatible con la presunta incompletitud del Modelo Estándar de la física de partículas.
Pero a pesar de estos argumentos científicos, se han montado varias defensas filosóficas de MOND. Richard Dawid y yo hemos resumido y evaluado críticamente los tres tipos más comunes de argumentos (De Baerdemaeker y Dawid, Referencia De Baerdemaeker y Dawid2022). El resto de esta sección se basa en ese análisis.
En primer lugar, los defensores de MOND apelan al criterio de demarcación de Popper de falsabilidad. Argumentan que la materia oscura como parte de Λ
El MDL no es científico porque Λ
El MDL es infalsificable. Esto se debe a que las predicciones de Λ
El MDL debe derivarse a través de complejas simulaciones por computadora. Especialmente para escalas de galaxias o cúmulos, estas simulaciones tienden a incluir una gran franja de parámetros libres para modelar interacciones no gravitacionales (en las escalas más grandes, la gravedad es dominante, lo que reduce significativamente la complejidad requerida). Como resultado, los defensores de MOND afirman que casi cualquier cosa se puede predecir con esas simulaciones o, en otras palabras, que estas simulaciones son infalsificables.
En segundo lugar, los defensores de MOND argumentan que la hipótesis de la materia oscura en sí misma es infalsificable siempre que no haya un candidato específico de materia oscura identificado como el único constituyente de la materia oscura. Sin tal especificación de "el" candidato a materia oscura, cualquier falla en la detección de un candidato de materia oscura dado con un experimento específico puede explicarse argumentando que el candidato buscado no constituye de hecho materia oscura. Por ejemplo, la falta de éxito empírico de la supersimetría ha ejercido presión sobre la idea de que la pareja supersimétrica más ligera es un buen candidato para la materia oscura, pero la hipótesis de la materia oscura en sí no se ha visto afectada por este resultado.
Finalmente, los defensores de MOND ofrecen un argumento positivo a favor de MOND. Este argumento positivo apela a la opinión de Lakatos sobre el cambio de teoría. Según Lakatos, los programas de investigación científica son progresivos siempre que hagan predicciones novedosas con éxito, incluso después de modificaciones para tener en cuenta la evidencia previamente recalcitrante. Son degenerativas si las modificaciones que se requieren para acomodar nuevas observaciones no conducen a predicciones novedosas. Los defensores de MOND argumentan que MOND, a diferencia de la materia oscura, ha hecho muchas predicciones arriesgadas para la fenomenología a escala galáctica, por ejemplo, la relación bariónica de Tully-Fisher o la relación de aceleración radial. Todas estas predicciones han sido confirmadas por las observaciones. Por lo tanto, MOND es un programa de investigación progresivo: basado en un pequeño conjunto de suposiciones, ha hecho con éxito varias predicciones novedosas.
Hay preguntas que plantear sobre la base científica de estos argumentos. Pero incluso dejando de lado eso, mostramos que hay un problema filosófico básico con el encuadre de cualquier defensa de MOND en términos de puntos de vista lakatosianos o popperianos sobre la evaluación de la teoría (De Baerdemaeker y Dawid, Referencia De Baerdemaeker y Dawid2022, §4). Los defensores de MOND pretenden hacer una afirmación epistémica de que MOND está confirmado por sus éxitos predictivos y, además, que MOND está confirmado adicionalmente por el fracaso de su único rival, la materia oscura. Esto está en clara tensión con los puntos de vista filosóficos que emplean. Las afirmaciones de Popper sobre la falsabilidad eran normativas: los científicos no deberían construir teorías infalsificables. Popper encontró equivocada cualquier noción de credibilidad o confirmación de una teoría científica, pero esto es exactamente lo que los defensores de MOND pretenden establecer. Y el trabajo de Lakatos debe entenderse como un análisis descriptivo de la historia de la ciencia. En otras palabras, es retrospectiva. Lakatos no dio criterios para determinar si un programa de investigación en curso es progresivo o degenerativo. Usar cualquiera de los puntos de vista para argumentos epistémicos es, por lo tanto, un error de categoría.Nota a pie de página14
Por lo tanto, concluyo que los argumentos filosóficos a favor de MOND no son hasta ahora convincentes, en línea con el consenso científico. Esto también plantea una preocupación metodológica sobre la filosofía de la materia oscura hasta ahora. Desde la perspectiva de la filosofía de la ciencia en la práctica, encuentro que el enfoque en un debate que está en gran medida ausente de la literatura científica es una oportunidad perdida. Sin duda, hay un trabajo conceptual interesante que se puede hacer al comparar la base conceptual de MOND y la materia oscura (ver, por ejemplo, Martens y Lehmkuhl Referencia Martens y Lehmkuhl2020a, Referencia Martens y Lehmkuhl2020b), y el debate puede ser un caso de prueba útil para los puntos de vista filosóficos sobre modelos y teorías (véase, por ejemplo, Jacquart Referencia Jacquart2021; Massimi Referencia Massimi2018). Sin embargo, argumentar explícitamente en contra del consenso científico de que existe una subdeterminación genuina o una razón para aceptar una teoría rival conlleva una alta carga de la prueba, una que no se ha cumplido hasta ahora. Y tal vez valga la pena que los filósofos interesados en la materia oscura dediquen sus esfuerzos a otra parte, dado que gran parte de la investigación sobre la materia oscura aún no se ha explorado. Con suerte, el resto de esta sección puede dar un empujón en esa dirección.
3.3 En busca de materia oscura
Quizás la pregunta central en la investigación contemporánea de la materia oscura es: ¿qué constituye la materia oscura? Esta pregunta presenta un desafío único. A pesar de la fuerte evidencia astrofísica y cosmológica de la materia oscura, así como de su comportamiento gravitacional (un fluido perfecto sin colisiones), hay muy poca orientación sobre su comportamiento no gravitatorio. Como Weatherall (Referencia Weatherall2021), eso puede deberse a que, si la materia oscura está constituida por agujeros negros primordiales, ya sabemos todo lo que hay que saber sobre ella. Sin embargo, la pregunta sigue siendo: ¿cómo podemos saber que la materia oscura está constituida por agujeros negros primordiales, o axiones, o cualquier otro candidato? En otras palabras, ¿cómo pueden los científicos progresar en el aprendizaje más sobre el comportamiento no gravitacional de la materia oscura (incluido, en el peor de los casos, que solo interactúa gravitacionalmente), dado que hay tan pocas restricciones en ese comportamiento no gravitacional?
Dado que se están llevando a cabo muchos experimentos de búsqueda de materia oscura, hacer tal progreso no debe ser inútil. Algunas búsquedas son los llamados experimentos de producción: buscan firmas de partículas de materia oscura producidas (de ahí el nombre) en colisionadores de alta energía como el LHC. Otros son búsquedas de detección directa con enormes cubas detectoras. Su objetivo es detectar un evento de dispersión en el que una partícula de materia oscura del halo de la Vía Láctea deposita algo de energía en un núcleo atómico en espera, similar a cómo se descubrieron por primera vez los neutrinos solares. Otros son experimentos de detección indirecta. A diferencia de los experimentos de detección directa, no buscan firmas de materia oscura que se dispersen de una partícula de modelo estándar. Más bien, apelan al hecho de que si la materia oscura es una partícula, es posible que en entornos ricos en materia oscura (por ejemplo, en el centro galáctico), las partículas de materia oscura puedan aniquilarse en partículas de modelo estándar, lo que resulta en una señal detectable. Las búsquedas indirectas buscan esas señales.Nota a pie de página15, Nota a pie de página16
Curiosamente, muchos experimentos que buscan candidatos a materia oscura tienden a utilizar tecnología probada de la física de altas energías. Los colisionadores de partículas habían demostrado su éxito durante mucho tiempo antes de que comenzaran a centrarse explícitamente en las búsquedas de materia oscura. Los experimentos de detección directa se modelaron explícitamente sobre los métodos de detección de neutrinos solares (De Baerdemaeker, Referencia De Baerdemaeker2021, 136-139). Esto es bastante peculiar, ya que una de las pocas cosas que se acepta ampliamente sobre lo que constituye la materia oscura es que no puede ser un modelo estándar de física de partículas. Entonces, ¿cómo pueden estos experimentos afirmar legítimamente que están buscando materia oscura?
He argumentado que la estructura de justificación para las nuevas búsquedas de física toma una forma diferente a la de la mayoría de los otros experimentos (De Baerdemaeker, Referencia De Baerdemaeker2021). Permítanme ilustrarlo contrastando la justificación de los experimentos de materia oscura con un ejemplo más típico: la investigación de resonancia magnética. Los científicos usan resonancias magnéticas para estudiar la estructura del cerebro y otros tejidos blandos del cuerpo humano. Las resonancias magnéticas utilizan fuertes campos magnéticos que interactúan con protones en el tejido de interés. Basándose en las diferencias en los tiempos de alineación con el campo magnético y en las liberaciones de energía, los científicos pueden diferenciar entre diferentes tipos de tejidos.Nota a pie de página17 ¿Por qué los científicos creen que las resonancias magnéticas son una forma efectiva de mapear la estructura del cerebro? Porque saben que el cuerpo humano consta de diferentes tipos de tejido y esos diferentes tipos de tejido están constituidos por átomos que contienen protones. Eso es todo. Ese conocimiento básico sobre el cuerpo humano es suficiente para establecer que las resonancias magnéticas son un método apropiado para detectar diferentes estructuras cerebrales, tumores o lesiones.
El problema con la creación de experimentos de búsqueda de materia oscura es que ese conocimiento muy básico, el análogo del hecho de que el cuerpo humano contiene protones, es en gran medida inexistente. Después de todo, no hay propiedades establecidas de la materia oscura que puedan orientar a los científicos sobre qué métodos pueden detectar el comportamiento no gravitacional de las partículas de materia oscura. Todo lo que tenemos es gravedad y límites en el comportamiento no gravitacional de la materia oscura.
Entonces, ¿cómo se justifican estas búsquedas de materia oscura? La justificación sigue una estructura diferente, donde los científicos asumen qué características necesitaría tener la materia oscura para que las configuraciones experimentales probadas puedan detectar partículas de materia oscura. Una vez más, considere un ejemplo. Como se mencionó anteriormente, muchas búsquedas de detección directa de materia oscura se basaron en experimentos exitosos de detección de neutrinos. Son (aproximadamente, estoy dejando de lado muchos detalles aquí, ver De Baerdemaeker (Referencia De Baerdemaeker2021, 136-137) para una reconstrucción más completa) justificada de la siguiente manera:
P1: Los experimentos de detección directa como los utilizados para la detección de neutrinos utilizan el acoplamiento débil para detectar partículas extraterrestres por su energía depositada en eventos de dispersión.
P2: Si la materia oscura está constituida por partículas que interactúan débilmente con una masa apropiada, entonces los experimentos de detección directa como los utilizados para la detección de neutrinos se pueden usar para buscar firmas de partículas de materia oscura del halo galáctico.
P3: Dado el conocimiento actual sobre la materia oscura basado en la cosmología y la astrofísica, es posible que la materia oscura esté constituida por partículas que interactúan débilmente con una masa adecuada.
____________________________________
C: Los experimentos de detección directa como los utilizados para la detección de neutrinos se pueden usar para buscar firmas de partículas de materia oscura del halo galáctico.
Tenga en cuenta que este tipo de justificación "impulsada por el método" requiere que las suposiciones sobre la interacción débil de la materia oscura y su rango de masa estén físicamente permitidas dado el conocimiento existente sobre la materia oscura (P3), incluso si no hay evidencia positiva para ello. Pero incluso cuando falta evidencia sólida, la situación epistémica a veces se puede mejorar a través de argumentos de plausibilidad. En el caso de varios experimentos de detección directa, por ejemplo, ese argumento de plausibilidad viene en forma del milagro WIMP: el hecho de que para las WIMP (partículas masivas de interacción débil), una clase popular de candidatos a materia oscura que también incluye partículas supersimétricas, la abundancia de materia oscura predicha teóricamente coincide con precisión con la abundancia de materia oscura observada.
Esta estructura de justificación debería plantear una preocupación obvia: ¿no hace esto que los resultados de las búsquedas de materia oscura dependan peligrosamente de las propiedades asumidas? Por supuesto, la justificación basada en el método de los experimentos de materia oscura se encuentra en un espectro con la justificación "habitual" para experimentos como las resonancias magnéticas, donde la ubicación en el espectro depende de qué tan bien se puedan justificar de forma independiente las suposiciones requeridas para los experimentos. Parece que en el caso de las búsquedas de materia oscura, estas suposiciones crean un obstáculo adicional para establecer la confiabilidad de los resultados experimentales para la materia oscura.
Una respuesta común a tal dependencia del modelo de los resultados experimentales es usar argumentos de robustez: si múltiples resultados independientes (pero dependientes del modelo) coinciden en un parámetro medido, esto se toma como una buena razón para creer que el resultado es una medición confiable del parámetro en cuestión. Antoniou (Referencia Antoniou2023) muestra, sin embargo, que los argumentos de robustez tienen un poder limitado en las búsquedas de materia oscura por dos razones. En primer lugar, hay muy poca superposición entre los métodos que buscan el mismo candidato a materia oscura, en otras palabras, la mayoría de las búsquedas de materia oscura ni siquiera pretenden probar el mismo parámetro. Incluso cuando sondean el mismo parámetro, diferentes métodos a menudo sondean diferentes regiones del espacio de parámetros, por lo que aún no justifican argumentos de robustez. En segundo lugar, las suposiciones hechas en diferentes búsquedas de materia oscura son principalmente sobre candidatos de materia oscura altamente específicos y sus características específicas. Eso significa que los resultados no se pueden comparar entre búsquedas de diferentes candidatos (como dice Antoniou, restringir la masa de WIMP es muy diferente a restringir la de axiones). Antoniou concluye que, aunque los argumentos de robustez se pueden usar para aumentar la confianza en los resultados de candidatos específicos de materia oscura, en su mayoría son inútiles para construir restricciones para el concepto general de materia oscura.
A la luz de esta limitación en las búsquedas de materia oscura, se podría adoptar un enfoque diferente y apuntar a mejorar las limitaciones de la cosmología y la astrofísica sobre el espacio de posibilidades de los candidatos a materia oscura. Esto puede suceder a través de observaciones astrofísicas y cosmológicas más detalladas. El Bullet Cluster, por ejemplo, fue crucial para establecer algunos límites en las fortalezas de la interacción. Del mismo modo, el comportamiento de la materia oscura a escala galáctica y subgaláctica en el marco de Λ.
El MDL aún no se comprende bien. Avanzar en cómo se comporta la materia oscura a escalas más pequeñas podría proporcionar una pista importante sobre qué candidatos pueden constituir materia oscura.
Pero al igual que con las búsquedas de candidatos a materia oscura, la precaución es clave. Derivar predicciones de Λ.
El CDM para escalas (sub)galácticas tiene que depender de complejas simulaciones por computadora, ya que la gravedad ya no es la única interacción dominante en este régimen. Esto hace que establecer la confiabilidad de los resultados de la simulación sea aún más desafiante (más sobre esto en la Sección 6). De hecho, existen varias discrepancias entre lo que predicen las simulaciones cosmológicas y lo que se observa: los llamados "desafíos a pequeña escala" para ΛCDM (véase, por ejemplo, Bullock y Boylan-Kolchin Referencia Bullock y Boylan-Kolchin2017, para una revisión). Si bien a veces se ha argumentado que estos desafíos a pequeña escala proporcionan motivación para modificar la hipótesis del MDL, sostengo que tales afirmaciones son prematuras: las simulaciones contienen demasiadas idealizaciones y son demasiado mal entendidas para sacar conclusiones finales sobre ΛCDM (De Baerdemaeker & Boyd, Referencia De Baerdemaeker y Boyd2020). La única conclusión que se puede sacar en este punto es que avanzar en el problema de la materia oscura requerirá un intercambio iterativo entre las búsquedas de candidatos a materia oscura, las observaciones cosmológicas y astrofísicas y los esfuerzos de modelado complejos.
3.4 Realismo sobre la materia oscura
La materia oscura también plantea nuevos desafíos para la metafísica de la ciencia. Como ha quedado claro hasta ahora, la materia oscura es una extensión o complemento de las teorías científicas con una larga historia. De alguna manera, queda fuera del alcance de la física establecida. Peor aún, debido a que no interactúa electromagnéticamente, no podemos "ver" las estructuras de la materia oscura (Jacquart, Referencia Jacquart2020; Weisberg et al., Referencia Weisberg, Jacquart, Madore y Seidel2018) en la forma en que se ven otros objetos astronómicos. ¿Qué implica todo esto para el realista científico? (Para el científico antirrealista, la física del sector oscuro no parece diferente de otros inobservables). Recuerde de la Sección 2.3 que el realismo científico está comprometido con la existencia tanto de observables como de inobservables que postulan nuestras mejores teorías científicas. Si uno es un realista científico, ¿debería comprometerse con la existencia de la materia oscura?
Como se mencionó anteriormente, los puntos de vista contemporáneos sobre el realismo científico son selectivos de varias maneras. No implican compromiso con la existencia de ninguna entidad o estructura postulada por nuestras mejores teorías científicas actuales. La pregunta clave es: ¿la materia oscura supera el umbral para el compromiso realista? En la limitada literatura filosófica sobre el realismo de la materia oscura, el consenso inicial parecía recaer en el antirrealismo (Allzén, Referencia Allzén2021; Martens Referencia Martens2022) (aunque véase Dellsén Referencia Dellsén2019, para un punto de vista opuesto).
Martens proporciona el argumento más detallado, basándose en el argumento de Chakravartty (Referencia Chakravartty y Edward2017) descomposición del realismo en tres compromisos diferentes: metafísico, semántico y epistémico. El compromiso metafísico es con una realidad independiente de la mente. El compromiso semántico es que las afirmaciones científicas tienen valor de verdad. El compromiso epistémico es que las afirmaciones científicas son realmente ciertas.
Martens discrepa con el compromiso semántico cuando se trata de materia oscura. Siguiendo a De Baerdemaeker (Referencia De Baerdemaeker2021) y Martens (Referencia Martens2022), refiriéndonos a todo lo que actualmente es ampliamente aceptado sobre la materia oscura basado en la cosmología y la astrofísica como el concepto de materia oscura de 'núcleo común': este es el núcleo de propiedades que todos los candidatos a materia oscura tienen que satisfacer para calificar como materia oscura. Esto incluye que la materia oscura no es bariónica, electromagnéticamente neutra, de movimiento lento y que constituye el 27% de la densidad de energía actual del universo.
Martens argumenta que este concepto central común de materia oscura es demasiado delgado para garantizar el realismo:
El problema con el realismo de la materia oscura no es la falta de sugerencias viables, es decir, modelos, sobre la naturaleza de la materia oscura, sino más bien su abundancia, o, más precisamente, el delgado núcleo conceptual común de esta cornucopia. (Martens, Referencia Martens2022, 3)
El problema, al parecer, es que debido a que este núcleo común todavía permite tantos candidatos a materia oscura con propiedades tan variadas (sería difícil llamar similares a los agujeros negros primordiales y los axiones), este núcleo es demasiado vago para justificar cualquier compromiso realista semántico. En pocas palabras, no sabríamos en qué somos realistas si adoptáramos una postura realista hacia la materia oscura.
En cambio, Martens se adhiere a un "realismo suspendido indefinidamente" (7) sobre la materia oscura. Esto deja la puerta abierta para el realismo futuro sobre la materia oscura. Si el trabajo científico futuro hiciera que el concepto de materia oscura fuera más preciso y limitara la subdeterminación de los modelos, entonces "el realismo semántico y epistemológico se reivindicaría simultáneamente" (9). Por ejemplo, si las búsquedas de materia oscura resultan ser exitosas, o si el trabajo astrofísico y cosmológico impone restricciones más estrictas en el espacio de posibilidades, el realismo volvería a estar sobre la mesa. Es importante destacar que, incluso si se justifica el realismo de la materia oscura en toda regla en el futuro, eso no implicaría que se nos hubiera garantizado ser realistas de la materia oscura hoy.
Vaynberg (Referencia Vaynberg2024) ha dado recientemente una respuesta a Martens. Vaynberg comienza argumentando que el concepto de materia oscura de núcleo común delgado que emerge de la cosmología y la astrofísica, aunque mínimo, es el concepto "en virtud del cual [la materia oscura] está conectada causalmente con los fenómenos que se supone que explica" (6). Eso significa que el concepto es constitutivo de tipo. Además, Vaynberg argumenta que existe evidencia empírica que respalda la existencia de materia oscura tal como se define en este delgado concepto de núcleo común, gracias a las observaciones del Cúmulo Bala.
Estoy de acuerdo con Vaynberg. Si bien estoy de acuerdo con Martens en que el concepto actual de materia oscura es bastante delgado y que hay una gran cantidad de modelos que aún son compatibles con ese núcleo común delgado, también es cierto que hay muchos modelos que no son compatibles con él, como neutrinos u objetos de halo compactos masivos. Esto, para mí, proporciona bases para un modesto compromiso realista semántico: las teorías científicas, incluida la materia oscura, postulan la existencia de algo que es compatible con ese núcleo común. Este "algo" juega un importante papel explicativo en cosmología y astrofísica. Sin duda, lo que estoy sugiriendo es un compromiso realista con un concepto vago. Pero eso no parece ser un problema prima facie.
4 Energía oscura
Mientras que la materia oscura constituye poco más de una cuarta parte de la densidad de energía actual del universo, la mayor parte del sector oscuro es energía oscura. Al igual que la materia oscura, la energía oscura hasta ahora solo se detecta a través de sus efectos gravitacionales. A diferencia de la materia oscura, solo existe un efecto de este tipo: la expansión acelerada del universo. Este descubrimiento de 1998 fue galardonado con el Premio Nobel de Física 2011, por una buena razón. En un universo con solo contenido de materia gravitacional, se esperaba que la expansión del universo se ralentizara con el tiempo debido a la atracción gravitacional. Sandage describió la cosmología como "la búsqueda de dos números": el parámetro de Hubble y el parámetro de desaceleración. Una expansión acelerada implicaba que la densidad de energía del universo requería una composición diferente; sugirió un nuevo tipo de contribución con una ecuación de estado diferente. Esto se convirtió en energía oscura, representada por la constante cosmológica Λ. .
O al menos, eso dice la historia. En la práctica, el descubrimiento y la aceptación de la expansión acelerada del universo se produjo después de una larga historia de lucha con Λ (Sección 4.1). Y con la aceptación de la expansión acelerada y una constante cosmológica distinta de cero, un viejo conocido volvió a estar al frente y al centro: el problema de la constante cosmológica (Sección 4.2).Nota a pie de página18
4.1 La historia de la constante cosmológica
Como " Λ : la constante que se niega a morir", el título de Earman (Referencia Earman2001) la revisión de la historia de la constante cosmológica sugiere: Λ nunca ha desaparecido por completo de la cosmología relativista desde que apareció por primera vez en Referencia Einstein1917. Einstein (Referencia Einstein1917) introdujo una constante cosmológica distinta de cero en un modelo de universo cerrado y estático, motivado principalmente por cuestiones de gusto filosófico: Einstein buscó modelar un universo estático homogéneo (se supone que es el caso del universo real), al tiempo que satisfacía el principio de Mach y el principio de relatividad (Earman, Referencia Earman2001, 192-193). En 1931, el primer punto ya se había vuelto discutible. La comunidad cosmológica aceptó ampliamente la expansión del universo basándose en los resultados observacionales de Hubble (Hubble, Referencia Hubble1929; Hubble y Humason, Referencia Hubble y Humason1931) y el trabajo teórico de Friedman (Referencia Friedman1999/1922) y Lemaître (Referencia Lemaître1927). Tenga en cuenta que esto no condujo inmediatamente al rechazo de la constante cosmológica: el modelo cosmológico de Eddington-Lemaître, que fue la opinión de consenso durante un breve tiempo alrededor de 1931, modeló un universo cerrado y uniformemente en expansión a partir de un universo de Einstein (inestable) que se extendía hasta t = −∞ , con una constante cosmológica distinta de cero (De Baerdemaeker y Schneider, Referencia De Baerdemaeker y Schneider2022).
El primer modelo de un universo en expansión con Λ=0 fue publicado por Einstein en 1931, pero recibió poca atención (O'Raifeartaigh et al., Referencia O'Raifeartaigh, McCann, Nahm y Mitton2014). Einstein y de Sitter publicaron un modelo aún más simple en Referencia Einstein y de Sitter1932: el suyo era un universo en expansión monótona a partir de una singularidad inicial. A pesar de estos desarrollos teóricos, y aunque Einstein había comenzado a expresar malestar con Λ relativamente poco después de introducirlo por primera vez en 1917 (Earman, Referencia Earman2001; O'Raifeartaigh y Mitton, Referencia O'Raifeartaigh y Mitton2018), Λ se mantuvo mucho después de la década de 1930. Hubo varias razones para esto.
En primer lugar, los modelos cosmológicos antes mencionados no eran muy conocidos ni estaban en línea con otras ideas sobre el universo. El modelo de Einstein de 1931 pasó desapercibido durante mucho tiempo. Y al menos según Eddington (Referencia Eddington, Needham y Pagel1938, 128), ni Einstein ni de Sitter consideraron particularmente interesante su modelo de universo en expansión de 1932. El modelo de Einstein y de Sitter también fue el primer modelo de universo abierto explícito, mientras que la preferencia por un universo cerrado parecía haber impregnado la cosmología durante varias décadas (de Swart, Referencia de Swart, Blum, Lalli y Renn2020).Nota a pie de página19 En segundo lugar, desde una perspectiva teórica, la introducción de la constante cosmológica es una parte natural de la relatividad general. Incluyendo el término constante cosmológico se obtiene la versión más general de las Ecuaciones de Campo de Einstein, con Λ una constante indeterminada. Esto ya fue señalado a Einstein por Tolman, quien argumentó que esto implicaba que el valor de Λ no podía decidirse arbitrariamente (Earman, Referencia Earman2001, 197). En cambio, Tolman abogó por que se determinara empíricamente (la otra alternativa es proporcionar argumentos teóricos sólidos para un valor particular). En tercer lugar, y en línea con las preocupaciones de Tolman, había una seria razón empírica en la década de 1930 para establecer Λ≠0 : el problema de la escala de tiempo. Basado en la relación velocidad-distancia de Hubble, se pensaba que la edad del universo basada en su historia de expansión era un orden de magnitud más joven que la edad de las estrellas más antiguas, por lo que tampoco permitía tiempo suficiente para la formación de estructuras. Esta fue la principal motivación para Lemaître, por ejemplo, para aferrarse a una constante cosmológica distinta de cero. Le permitió introducir una "fase de inercia" en la expansión del universo, de modo que el universo era más antiguo que la segunda fase de expansión (De Baerdemaeker y Schneider, Referencia De Baerdemaeker y Schneider2022). Y finalmente, algunos, como Eddington, tenían preferencias teóricas por una constante cosmológica distinta de cero (Earman, Referencia Earman2001, 203).
Algunas de estas preocupaciones desaparecieron en la segunda mitad del siglo XX. Las reflexiones teóricas de Eddington no tuvieron éxito, y el modelo de Einstein-de Sitter ganó prominencia como el modelo estándar de cosmología (véase, por ejemplo, el de Weinberg (Referencia Weinberg1972) libro de texto seminal). Mientras tanto, gracias a la campaña de Sandage (Referencia Sandage1958) y Baade (Referencia Baade1956) corrigiendo las mediciones de distancia del Hubble, el problema original de la escala de tiempo desapareció. Eso significaba que las observaciones empíricas disponibles podían modelarse con Λ=0
Una vez más, sin embargo, esto no significaba que Λ desapareció de la vista (Earman, Referencia Earman2001, §10). El argumento de Tolman seguía en pie: Λ es parte de las ecuaciones de campo de Einstein generalizadas, con un valor indeterminado, aunque limitado por observaciones. La búsqueda de un argumento teórico para el valor de la constante cosmológica estaba en marcha. A partir de Zel'dovich en la década de 1960, los físicos de partículas comenzaron a mostrar interés en la cosmología, y particularmente en la constante cosmológica. Se dio cuenta de que la densidad de energía del vacío se comporta como una constante cosmológica y que, por lo tanto, debería ser posible derivar una predicción de su valor basada en consideraciones de la teoría cuántica de campos (QFT) (Earman, Referencia Earman2001, 207).
Sin embargo, rápidamente quedó claro que el valor derivado de Λ de QFT era órdenes de magnitud demasiado grande en comparación con el límite superior determinado empíricamente, tan grande que la expansión del universo habría ocurrido demasiado rápido para permitir la formación de estructuras, y mucho menos el desarrollo de la vida humana. Para resolver este problema, se podría suponer que la densidad de energía del vacío contribuye a la constante cosmológica efectiva Λeff junto con una constante cosmológica 'desnuda'
Λ0 : Λeff=Λ0+8πG⟨ρvac⟩ (6)
Λ0 es un parámetro libre que puede cancelar la contribución de la densidad de energía del vacío ρvac . Sin embargo, esta solución no es satisfactoria: el valor de Λ0 tendría que ajustarse para cancelar más de 118 decimales para mantener Λeff en línea con los límites de observación. Weinberg (Referencia Weinberg1989, 1) proclamó este problema "una verdadera crisis": el problema cosmológico constante (PCCh). El PCCh motivó décadas de búsqueda de alguna solución "natural" al problema, donde un tipo desconocido de simetría justificaría el establecimiento Λeff a cero a pesar de las grandes energías de punto cero predichas por QFT (Koberinski, Falck y Smeenk, Referencia Koberinski, Falck y Smeenk2023).
En la década de 1990, comenzaron a aparecer grietas en el caso de la naturalidad debido a nuevas anomalías empíricas. A partir de la década de 1980, surgió un nuevo problema de escala de tiempo, esta vez relacionado con los cúmulos globulares de estrellas. Estos son cúmulos de estrellas estrechamente unidos gravitacionalmente, que a menudo se encuentran en el halo de galaxias espirales como la Vía Láctea. Los astrofísicos generalmente asumen que las estrellas en tales cúmulos se formaron aproximadamente al mismo tiempo, por lo que todas tienen aproximadamente la misma edad. Weinberg (Referencia Weinberg1989, 8) mencionó que la edad estimada del cúmulo globular era más antigua que la edad de expansión estimada del universo, lo que llevó a algunos a proponer valores distintos de cero para Λ
. Las estimaciones de edad para los cúmulos globulares no fueron suficientes para forzar una aceptación general de Λ≠0 sin embargo. Eso requeriría evidencia empírica más fuerte y menos dependiente del modelo.
En 1998, esta evidencia fue presentada por dos equipos que competían en cosmología de supernovas: el Proyecto de Cosmología de Supernovas y la Colaboración High-z. La cosmología de supernovas utiliza el hecho de que las supernovas de tipo Ia (SNe Ia) son altamente uniformes para sondear la evolución del universo. SNe Ia que se observan a mayor corrimiento al rojo revelan el pasado más profundo del universo. Guralp (Referencia Guralp2020) ofrece una reconstrucción histórica detallada de los preámbulos y estudios que finalmente condujeron al descubrimiento de la expansión acelerada del universo. El resto de esta subsección se basa en el relato de Guralp.
Si bien la cosmología de las supernovas comenzó en la década de 1980, no se puso en marcha adecuadamente hasta la década de 1990.Nota a pie de página20 Uno de los principales obstáculos fue encontrar suficiente SNe Ia para lograr resultados significativos. Después de revisar su método de búsqueda, el Proyecto de Cosmología de Supernova publicó su primera medición de parámetros cosmológicos en 1997. Los resultados fueron erróneos: midieron Λ=0
parámetro de densidad de materia ΩM≈1 (Guralp, Referencia Guralp2020, §3.2-3.3). La Colaboración High-z pasó por una prehistoria similar (Guralp, Referencia Guralp2020, §3.4). Sin embargo, a pesar de estos resultados erróneos, Guralp muestra que los primeros artículos fueron esenciales para establecer la confiabilidad de la cosmología de las supernovas y las respectivas metodologías de los equipos.
En 1998, ambos equipos estaban preparados para liberar todo el potencial de sus protocolos de medición recién establecidos. En el lapso de menos de un año, los dos equipos anunciaron sus sorprendentes resultados de que la expansión del universo no se estaba desacelerando sino acelerando, y que Λ>0.
Dada la historia antes mencionada de la constante cosmológica y especialmente los argumentos de naturalidad esperados para Λ=0 , las afirmaciones de evidencia de los dos equipos debían ser extraordinariamente sólidas. Guralp identifica dos formas en que los argumentos de solidez ayudaron a fortalecer la evidencia.Nota a pie de página21 Primero, cada equipo ejecutó internamente varios tipos de análisis de datos (el Proyecto de Cosmología de Supernovas usó diferentes subconjuntos de datos; la Colaboración High-z, que tenía menos supernovas en su conjunto de datos, usó diferentes técnicas de análisis) (Guralp, Referencia Guralp2020, §3.5-3.6). En segundo lugar, el hecho de que dos equipos competidores anunciaran el mismo resultado casi al mismo tiempo, ayudó a convencer a la comunidad en general de su precisión (Guralp, Referencia Guralp2020, §4). En una entrevista oral realizada por Guralp, Riess (High-z) recordó:
Ahora míralo desde el punto de vista de la comunidad. Escuchan este resultado loco, pero ven dos equipos diferentes que sabían que no eran colaborativos, eran competitivos. Sin embargo, estaban obteniendo este mismo resultado. [...] Dicen "bueno, supongo que esta debe ser la respuesta correcta porque ambos equipos la entienden". A los científicos les encanta verificar. (Guralp, Referencia Guralp2020, 37) En otras palabras, había un fuerte argumento de solidez sobre la mesa.
En los años siguientes, se dispuso de más y (según Guralp) diferentes argumentos de robustez a través de verificaciones de consistencia con el espectro de potencia del CMB. Los resultados de WMAP mostraron que el universo era casi plano, pero las contribuciones de la materia a la densidad de energía solo ascendían a aproximadamente 0,3 de la densidad crítica (Spergel et al., Referencia Spergel, Verde y Peiris2003). Los 0,7 restantes pueden ser aportados por una constante cosmológica distinta de cero o, en otras palabras, energía oscura. (El término energía oscura fue acuñado por Turner después de la publicación de los resultados de las supernovas como un término general para lo que sea que cause la expansión acelerada del universo). Así, la constante cosmológica volvió de entre los muertos, y más fuerte que nunca.
4.2 El problema de la constante cosmológica
La reintroducción de una constante cosmológica distinta de cero trajo de vuelta al PCCh con una nueva apariencia. Cuando Weinberg presentó por primera vez al PCCh como una crisis, Λ seguía siendo una constante indeterminada, aunque limitada por el hecho de que cualquier forma de vida es posibleNota a pie de página22 y con todas las observaciones consistentes con que sea efectivamente cero. Y aunque la discrepancia con la densidad de energía de punto cero era un problema, había, al menos en ese momento, esperanza de una solución a través de un argumento de naturalidad. Con todo, el único desafío fue el llamado "viejo PCCh": explicar la discrepancia entre ⟨ρvac⟩ ser grande y Λ cero.
Los resultados de las supernovas dieron una determinación empírica exacta de Λ por primera vez. El conflicto con la energía de punto cero siguió siendo un problema (el valor observado de Λ sigue siendo muchos órdenes de magnitud más pequeño que cualquier predicción para la energía de punto cero), pero agregó la dificultad de que una solución a través de la naturalidad se volviera inverosímil. Esto es a lo que los filósofos de la ciencia a menudo se refieren como el "nuevo PCCh": la discrepancia entre ⟨ρvac⟩ ser grande y Λ ser pequeño pero no cero. Si bien una solución al problema original de Weinberg puede haber parecido al alcance, el nuevo PCCh parece más una verdadera crisis porque carece de una ruta obvia hacia una solución.
Los resultados de las supernovas también plantearon una nueva pregunta: ¿cuál es la física detrás de la constante cosmológica? En otras palabras, ¿qué impulsa la expansión acelerada del universo? Si no es la densidad de energía del vacío, ¿entonces qué? Tras una revisión reciente (Colaboración de Aspectos Fundamentales de la Energía Oscura (FADE) et al., Colaboración de referencia, Bernardo y Bose2023) Me referiré a esto como el "problema de la energía oscura". Nota a pie de página23
El estatus del PCCh, antiguo o nuevo, como problema ha sido filosóficamente polémico. Denotar al PCCh como un problema genuino o "crisis" significa que el PCCh es una anomalía persistente para la teoría actual. Los debates filosóficos se centran en si el PCCh es realmente un problema, para qué es un problema el PCCh y cómo son las soluciones permisibles al PCCh (Earman, Referencia Earman2001; Koberinski, Referencia Koberinski, Wüthrich, Bihan y Huggett2021; Schneider Referencia Schneider2020). Aquí, me centraré principalmente en el nuevo PCCh, aunque el problema de la energía oscura también aparecerá.
Hay varias razones por las que los filósofos de la ciencia han criticado enmarcar al PCCh como una crisis. Por un lado, algunos discrepan con los supuestos necesarios para establecer el PCCh en primer lugar. Koberinski (Referencia Koberinski, Wüthrich, Bihan y Huggett2021) identifica tres pasos problemáticos en la configuración del PCC como un conflicto entre el valor calculado de la densidad de energía del vacío a partir de QFT, por un lado, y el valor observado para la constante cosmológica, por el otro. En primer lugar, Koberinski arroja dudas sobre el hecho de que incluso exista un valor tan absoluto para ⟨ρvac⟩ , dado que el verdadero término de vacío nunca aparece en los cálculos de la teoría cuántica de campos. En segundo lugar, Koberinski alega que el cálculo de ⟨ρvac⟩ es problemático, porque es un término divergente. Eso significa que para calcular ⟨ρvac⟩ , es necesario introducir una escala de energía de corte, y aunque cualquier punto de corte razonable conduce a una medición contradictoria con Λobs , no hay motivos para suponer que las divergencias de ⟨ρvac⟩ se curará a escalas de energía más altas. Koberinski duda en confiar en un término divergente en QFT para el cual no existe ningún mecanismo para su regularización. En tercer lugar, Koberinski cuestiona cómo la densidad de energía del vacío se acopla a la gravedad. Como resultado, Koberinski concluye que el PCCh no debe tomarse en serio. De hecho, aunque el PCCh "sin duda ha tenido éxito como motivador heurístico [...], ninguna estrategia de solución clara ha llevado a un progreso importante en el desarrollo de la gravedad cuántica" (Koberinski, Referencia Koberinski, Wüthrich, Bihan y Huggett2021, 276). Koberinski y Smeenk (Referencia Koberinski y Smeenk2023) argumentan además que el PCC solo surge si se asume que los métodos teóricos de campo efectivos deben aplicarse para la comprensión Λ .
Incluso si uno acepta la configuración técnica del problema, hay una razón más por la que algunos han argumentado que el PCCh no equivale a una crisis, al menos no para la teoría actual. Schneider (Referencia Schneider2020) señala que la creación del PCC requiere una hipótesis adicional: que el valor observado para la constante cosmológica Λeff se agota por las energías de punto cero que surgen en QFT. Sin embargo, como ya se desprende de la ecuación (6), no hay ninguna razón por la que no se le permita introducir un término constante cosmológico desnudo Λ0 para cancelar las contribuciones. Hay diferentes formas de interpretar este término escueto, pero tal como está, "su función en el modelo [cosmológico] es la de un parámetro de ajuste para ayudar a hacer coincidir el modelo con los datos empíricos" (Schneider, Referencia Schneider2020, 5).
El problema con esta solución es que el valor calculado para ⟨ρvac⟩ depende de la escala de corte de energía (Wallace, Referencia Wallace2021). Eso significa que Λ0 se convierte en una función tanto de la constante cosmológica observada como de la escala de corte de alta energía elegida arbitrariamente. Además, como reconoce Koberinski, ⟨ρvac⟩ será muchos órdenes de magnitud mayor que el valor observado, incluso para escalas de corte muy bajas. Λ0 por lo tanto, tendrían que ajustarse a un grado extraordinariamente alto independientemente de la escala de corte, pero de manera diferente para cada escala de corte. Wallace (Referencia Wallace2021, nota 35) señala que "las relaciones entre los parámetros desnudos y observados en la física de partículas generalmente no están ajustadas de esta manera". Entonces, incluso si no existe una anomalía empírica estricta para la teoría actual, el PCCh es un caso inusual de ajuste fino.
Por supuesto, como se discutió en el contexto de la inflación (Sección 2.1), establecer que el ajuste fino es problemático es un problema filosófico notoriamente difícil, y Wallace (Referencia Wallace2021, 34) concede que se puede debatir si el ajuste fino a este grado es un problema en absoluto (Wallace lo ve claramente como tal). Sin embargo, al menos, Wallace tiene razón en que el hecho de que Λ0. Como un parámetro de ajuste depende de una elección de cálculo arbitraria, señala una brecha en la teoría actual.
Cuando se trata de la configuración técnica del problema, Wallace adopta una postura más fuerte. Wallace señala que el PCCh surge de cálculos bastante sencillos en la llamada 'Gravedad Cuántica de Baja Energía' (LEQG), es decir, "la teoría que se obtiene al tratar la RG como una teoría de campo efectiva, cuantificada a través de medios integrales de trayectoria" (Wallace, Referencia Wallace2021, 36). LEQG está detrás de gran parte de la cosmología y la astrofísica contemporáneas y, como tal, ha demostrado ser un gran éxito. Wallace considera que este éxito de LEQG es importante por dos razones. En primer lugar, da una fuerte refutación contra las preocupaciones técnicas sobre la configuración del PCCh. En segundo lugar, el éxito de LEQG ayuda a explicar por qué el PCCh es un problema central en la física contemporánea: es uno de los pocos indicadores que los físicos tienen actualmente sobre una teoría sucesora de LEQG, es decir, hacia una teoría más completa de la gravedad cuántica.
Aunque Schneider (Referencia Schneider2020), a diferencia de Wallace, no está dispuesto a considerar el ajuste fino como suficiente para establecer el PCCh como un problema para la teoría actual, Schneider está de acuerdo con Wallace en su importancia como indicador para la teoría futura. Después de todo, rechazar al PCCh como un problema genuino plantea un rompecabezas: si el PCCh no es un problema para la teoría actual, ¿por qué es tan ampliamente discutido por los científicos?
Schneider sugiere que el PCCh sirve como motivación para futuras teorías (véase también Schneider Referencia Schneider2022). Específicamente, diferentes suposiciones sobre cómo será una futura teoría de la gravedad cuántica motivan diferentes formulaciones del PCCh. Cada formulación encaja entonces como un "problema que ya está resuelto" por la teoría futura preferida relevante de la gravedad cuántica. Schneider identifica tres categorías diferentes de soluciones, relacionadas con tres supuestos diferentes sobre la gravedad cuántica y tres versiones diferentes del PCC:
1. Supongamos que las cantidades de vacío [...] no gravitan como fuentes ordinarias en el EFE. Entonces el PCCh se convierte en: ¿Qué da lugar al término de vacío efectivo caracterizado por Λ en el modelo estándar de cosmología?
2. Suponga que las energías de punto cero gravitan como cantidades tensoriales en el lado derecho de la EFE y obtenga exhaustivamente el término de vacío efectivo caracterizado por Λ . Entonces el PCCh se convierte en: ¿Cómo se explica la discrepancia entre los valores actualmente calculados de las energías de punto cero y las observadas? Λ ?
3. Suponga que Λ no se obtiene exhaustivamente de las energías del vacío. Entonces el PCCh se convierte en: ¿Qué otros mecanismos físicos pueden contribuir a lo que ahora se entiende como el vacío efectivo denominado caracterizado por Λ ?(Schneider, Referencia Schneider2020, 11)
Tenga en cuenta que los tres tipos de soluciones no solo resuelven el nuevo PCCh, sino que también resuelven el problema de la energía oscura. Es decir, dan una explicación causal para la expansión acelerada del universo, ya sea introduciendo nuevos tipos de campos de materia, o modificando la relatividad general.
Obviamente, este no es el caso de otros dos tipos de soluciones para el nuevo PCC. La primera solución alternativa es simplemente asumir que Λ es un parámetro libre cuyo valor puede determinarse mediante observaciones. Ese valor debe aceptarse como un hecho bruto. Hay dos problemas con esta actitud. Primero, ignora por completo al PCCh, que al menos según Wallace (Referencia Wallace2021) no es una actitud epistémica sostenible. En segundo lugar, desde la perspectiva de los científicos en ejercicio, esta actitud cierra cualquier posibilidad de investigación adicional (Koberinski et al., Referencia Koberinski, Falck y Smeenk2023; Schneider Referencia Schneider2020; Wallace Referencia Wallace2021). Y dado que los indicadores para una teoría más completa de la gravedad cuántica son escasos, es mejor que hagamos uso de los pocos que están disponibles.
El otro tipo de solución que no aborda explícitamente el problema de la energía oscura son las soluciones antrópicas al PCCh. Este tipo de solución tiene como objetivo dar algún argumento probabilístico de por qué el valor observado de Λ es de esperar, suponiendo que vivamos en un multiverso (debido a la inflación eterna o la teoría de cuerdas, por ejemplo). En otras palabras, el valor observado de Λ se explica estadísticamente, en lugar de dinámicamente. Hay varios problemas con las soluciones antrópicas. Similar al problema de la medición de la inflación, Benétreau-Dupin (Referencia Benétreau-Dupin2015) ha argumentado que hay serios problemas con los argumentos probabilísticos. Quizás lo más preocupante es que las soluciones antrópicas todavía sufren de sensibilidad a los rayos UV: el paisaje de posibilidades del que se obtiene el valor observado de la Λ depende de la escala de energía elegida. Finalmente, Koberinski et al. (Referencia Koberinski, Falck y Smeenk2023, 25) señalan que estas soluciones se basan inevitablemente en la física especulativa que genera un multiverso. Sin razones separadas para confiar en la física especulativa que sugiere el multiverso, parece prematuro aceptar este tipo de solución al PCCh y cerrar la investigación adicional sobre otras rutas.
Para terminar esta sección, permítanme señalar brevemente que hay una forma alternativa de progresar en el problema de la energía oscura al menos: los programas de observación. Actualmente, se están llevando a cabo varios experimentos para restringir la ecuación de estado de la energía oscura (la esperanza es que esta ecuación de estado demuestre ser dependiente del tiempo) o para encontrar evidencia de teorías modificadas de la gravedad a escalas cosmológicas (efectos que tendrían que ser mínimos, dadas las fuertes restricciones sobre la gravedad modificada de las pruebas de RG del sistema solar). Idealmente, estas observaciones arrojarán luz sobre la física detrás Λ y romper la grave subdeterminación entre las muchas propuestas teóricas (Koberinski et al., Referencia Koberinski, Falck y Smeenk2023; Smeenk & Weatherall, Referencia Smeenk y Weatherall2023). Algunos son escépticos de que tales observaciones cosmológicas puedan ser suficientes para romper la subdeterminación entre diferentes propuestas para el mecanismo microfísico responsable de la expansión acelerada del universo. En cambio, les preocupa que la cosmología pueda estar atrapada en un estado de subdeterminación permanente sobre este tema (Ferreira, Wolf y Read, Referencia Ferreira, Wolf y Read2025; Wolf y Ferreira, Referencia Wolf y Ferreira2023). Basta con decir: continuará.
5 Agujeros negros
El último caso en el que quiero centrarme es la astrofísica de los agujeros negros. La investigación de los agujeros negros es casi tan antigua como la relatividad general: Schwarzschild encontró su solución homónima a las ecuaciones de campo de Einstein ya en 1916. Pero durante mucho tiempo, la realidad física de las singularidades siguió siendo controvertida y recibió una atención limitada en física (Earman, Referencia Earman1995, Cap. 1). En la década de 1960, hubo un verdadero renacimiento de la investigación teórica de los agujeros negros. Los teoremas de singularidad de Hawking, Penrose y otros demostraron la naturaleza genérica de las singularidades del espacio-tiempo, y el primer argumento teórico de Hawking para la existencia de la radiación de Hawking sentó las bases para la termodinámica de los agujeros negros (ver Earman Referencia Earman1995, para referencias y una introducción filosófica).
Los resultados observacionales de los agujeros negros de masa estelar siguieron con bastante rapidez. También en la década de 1960, se descubrió Cygnus X-1, una brillante fuente galáctica de rayos X. Estudios posteriores revelaron que Cygnus X-1 era un binario para el cual se infirió que uno de los compañeros era un agujero negro debido a su alta densidad de masa (ver Avni y Bahcall Referencia Avni y Bahcall1975, por uno de los primeros estudios de la masa de Cygnus X-1; varios estudios recientes han actualizado las estimaciones de masa). La evidencia empírica de agujeros negros supermasivos tomó mucho más tiempo. Solo a principios de la década de 2000 los científicos encontraron evidencia empírica convincente de que Sagitario A * (Sgr A *), el objeto masivo en el centro de la Vía Láctea, es un agujero negro supermasivo (Genzel et al., Referencia Genzel, Eckart, Ott y Eisenhauer1997; Ghez et al., Referencia Ghez, Klein, Morris y Becklin1998; Ghez et al., Referencia Ghez, Morris, Becklin, Tanner y Kremenek2000). Las observaciones de rayos X a largo plazo mostraron estrellas orbitando rápidamente una masa central que, debido a las altas velocidades de rotación de las estrellas y al pequeño radio de la masa central, no podía ser otra cosa que un agujero negro. Curiel (Referencia Curiel2019, 28) sostiene que es solo en esta etapa que "la comunidad logró algo así como un acuerdo unánime sobre la existencia y relevancia de los agujeros negros".
Hoy en día, la investigación de los agujeros negros está en el centro de muchas más disciplinas que la cosmología y la astrofísica: la investigación abarca desde la gravedad cuántica hasta los fundamentos de la relatividad (semi)clásica y más allá. Esta sección solo tocará la astrofísica de los agujeros negros. Los lectores interesados en otros aspectos filosóficos de los agujeros negros, incluida la paradoja de la pérdida de información, la validez de la termodinámica de los agujeros negros y las implicaciones de la existencia de singularidades para la metafísica del espacio-tiempo podrían mirar (Curiel, Referencia Curiel2019; Dougherty & Callender, Referencia Dougherty y Callender2016; Earman, Referencia Earman1995) y las referencias contenidas en ellos como punto de partida; aquellos interesados en tener una idea de los diferentes tipos de investigación que inspiran los agujeros negros también disfrutarían del documental de Gallison "Black Holes: The Edge of All we Know",Nota a pie de página24 donde filósofos, astrofísicos, físicos teóricos y físicos experimentales discuten sus respectivas investigaciones sobre agujeros negros.
Como ejemplo de investigación astrofísica, la astrofísica de agujeros negros es tanto una excepción como un ejemplo de la astrofísica observacional típica. Es una excepción porque los agujeros negros no emiten radiación electromagnética detectable, a diferencia de la mayoría de las estrellas y galaxias. En ese sentido, es similar a la investigación astrofísica de la materia oscura. Además, generalmente evolucionan en escalas de tiempo mucho más cortas que la mayoría de los objetos astrofísicos, cuyas escalas de tiempo típicas tienden a ser del orden de millones de años (Doboszewski y Lehmkuhl, Referencia Doboszewski, Lehmkuhl, Boyd, Baerdemaeker, Heng y Matarese2023). Una excepción a esta regla es la línea de tiempo de formación para sistemas binarios que incluyen un agujero negro (Elder, Referencia Elder, Boyd, Baerdemaeker, Heng y Matarese2023b).
La astrofísica de agujeros negros es un ejemplo de la naturaleza multifacética de la astrofísica observacional. Los astrofísicos observacionales en general no se limitan a detectar pasivamente señales electromagnéticas; También experimentan en sistemas analógicos, buscan diferentes tipos de señales (fue una fusión de agujeros negros la que marcó el comienzo de una nueva era de astronomía de múltiples mensajeros) y realizan modelos complejos. La discusión de esta sección sobre la astrofísica de los agujeros negros es el peldaño final para una discusión general de cómo los científicos obtienen acceso empírico al universo.Nota a pie de página25
5.1 ¿Qué es un agujero negro?
Antes de discutir específicamente la astrofísica de los agujeros negros, quiero dar un paso atrás y reflexionar sobre la amplia gama de disciplinas que estudian los agujeros negros. Dado que hay tantas disciplinas, hay muchas formas diferentes de definir los agujeros negros. Basado en una encuesta informal de físicos y filósofos de varios subcampos, Curiel (Referencia Curiel2019) identifica al menos doce definiciones de trabajo que no son necesariamente compatibles entre sí. Al revisar algunas de las definiciones comunes (por ejemplo, el horizonte de eventos clásico, una singularidad), Curiel también destaca que cada una de estas definiciones tiene deficiencias. Por ejemplo, los astrofísicos en la práctica definen un agujero negro como "un sistema de al menos una masa mínima, espacialmente lo suficientemente pequeño como para que los efectos relativistas no puedan ser ignorados" (Curiel, Referencia Curiel2019, 30). Pero, como señala Curiel, esta definición también podría satisfacerse con una singularidad desnuda, que supuestamente está prohibida por la conjetura de censura cósmica de Penrose. Para cada una de las definiciones propuestas, Curiel identifica trampas similares, razones por las que no pueden ser "la" definición universal de un agujero negro.
Esto plantea un desafío obvio. Estas definiciones, a pesar de no ser equivalentes y a veces incluso incompatibles, "están todas en el fondo tratando de llegar a lo mismo" (Curiel, Referencia Curiel2019, 32). En otras palabras, los astrofísicos del Event Horizon Telescope, los físicos de materia condensada que estudian los agujeros negros analógicos (más sobre ambos más adelante), los físicos teóricos que estudian la gravedad semiclásica, todos pretenden estudiar la misma clase de objetos. Sin una definición acordada, de hecho, sin un núcleo común acordado similar a la definición delgada de materia oscura (Sección 3.3), es difícil ver cómo se puede argumentar que todas estas definiciones están estudiando la misma "cosa". Pero, como subraya Curiel, presentar este caso es esencial para aplicar los resultados de un área de la investigación de agujeros negros a otra.
¿Qué se debe hacer en respuesta a este enigma? Doboszewski y Lehmkuhl (Referencia Doboszewski, Lehmkuhl, Boyd, Baerdemaeker, Heng y Matarese2023) identifiquen seis posibles respuestas. La opinión de Curiel, argumentan, se alinea con el pluralismo pragmático. Curiel considera "agujero negro":
un concepto aproximado y nebuloso [...] compartido a través de la física, que se puede explicar [...] articulando una definición más o menos precisa que capture de manera clara muchas características importantes de la idea nebulosa, [que] se puede hacer de muchas maneras diferentes, cada una apropiada para diferentes contextos teóricos, observacionales y fundacionales.(Curiel, Referencia Curiel2019, 33)
En otras palabras, el hecho de que haya muchas formas diferentes de hacer que el nebuloso concepto de un agujero negro sea más preciso se considera algo bueno, porque esta flexibilidad permite a los científicos de tantas subdisciplinas diferentes adaptar el concepto a sus preguntas de investigación específicas. Por supuesto, en esta opinión, no está claro cómo Curiel espera que sea posible aplicar los resultados en todos los campos de investigación.
Doboszewski y Lehmkuhl (Referencia Doboszewski, Lehmkuhl, Boyd, Baerdemaeker, Heng y Matarese2023) tienen una opinión diferente. Revisan las relaciones entre algunas definiciones y señalan que estas relaciones "generalmente fluyen de la adecuación empírica y conceptual de una solución exacta de las ecuaciones de campo de Einstein, en particular las soluciones de Kerr y Schwarzschild" (240). Dada esta similitud, parece plausible que estas soluciones exactas sean el concepto central común de un agujero negro. ¿De dónde proviene entonces la pluralidad de definiciones que reveló el estudio de Curiel? Esto, argumentan, se debe a la introducción de varios supuestos auxiliares que son requeridos por el contexto de investigación específico en el que se aplicará el concepto básico común. En otras palabras, la definición básica común, es decir, la solución exacta a las ecuaciones de campo de Einstein, es un concepto altamente idealizado que debe ser desidealizado de varias maneras dependiendo del propósito específico.
Si bien simpatizo con esta posición, queda una pregunta persistente. ¿Qué implica todo esto para la metafísica de los agujeros negros (también discutida por Allzén? Referencia Allzén, Boyd, Baerdemaeker, Heng y Matarese2023)? Si se sabe que el concepto de núcleo común de un agujero negro es un concepto altamente idealizado que en realidad no se aplica en ninguna parte de la naturaleza (esto es parte de la preocupación que Curiel plantea sobre las definiciones clásicas), y no está claro cómo se relaciona cada definición práctica con el núcleo común, ¿a qué puede aferrarse entonces el compromiso realista? Se requiere más trabajo para aclarar este punto.
5.2 Detección 'directa' de un agujero negro
Incluso dentro de la subdisciplina de la astrofísica de agujeros negros, aparecen varios acertijos epistémicos. En la última década, se alcanzaron dos hitos en la astrofísica de los agujeros negros: la primera detección de ondas gravitacionales por el consorcio LIGO/Virgo, y la primera imagen del horizonte de sucesos y su entorno inmediato por la colaboración Event Horizon Telescope (EHT). Curiosamente, ambas colaboraciones hicieron afirmaciones explícitas o implícitas de "franqueza": LIGO / Virgo reclamaron la primera detección "directa" de ondas gravitacionales y la primera observación "directa" de una fusión de agujeros negros binarios (Abbott et al., Referencia Abbott, Abbott y Abbott2016), mientras que el EHT promocionó su imagen de Sgr A* (la segunda imagen que publicaron) como la "primera evidencia visual directa" de que Sgr A* es un agujero negro supermasivo (Event Horizon Telescope, 2022).Nota a pie de página26
Un estudio histórico de Skulberg y Elder (Referencia Skulberg y Elderpróximo) muestra que el lenguaje de "franqueza" en las imágenes de agujeros negros tiene una historia histórica. Aún así, este tipo de lenguaje es sorprendente de encontrar en el contexto de la investigación de agujeros negros. Los agujeros negros, al igual que la materia oscura, se describen genéricamente como inobservables. Los agujeros negros son absorbentes perfectos (la radiación de Hawking no sería observable para un observador humano; más sobre esto en la siguiente subsección). Los agujeros negros también tienen un horizonte de eventos, es decir, son una región sin escapatoria. Para un observador externo, es imposible observar lo que sucede dentro del horizonte de eventos. Eckart et al. (Referencia Eckart, Hüttemann y Kiefer2017, 555) por lo tanto describen (supermasivoNota a pie de página27) como "entidades no observables" o "solo observables por medios indirectos". Además, afirman que solo podemos inferir su existencia en función de sus interacciones con su entorno, por ejemplo, sus efectos en un compañero binario, un disco de acreción o mediante efectos de lentes gravitacionales.
Parece haber una tensión en la descripción de los recientes resultados de los agujeros negros en la astrofísica observacional de los agujeros negros, y la realidad científica de que los agujeros negros no son directamente observables en ningún sentido intuitivo. Anciano (Referencia Anciano2020, Referencia Elder, Patton y Curiel2023a, Referencia Elder, Boyd, Baerdemaeker, Heng y Matarese2023b, Referencia Anciano2025) ha asumido la tarea de aclarar la epistemología de la astrofísica de ondas gravitacionales, incluido el uso de "directo" o "indirecto" para describir varios resultados observacionales en la astrofísica de agujeros negros. Como enfatiza Elder, estos términos están cargados social y políticamente, pero también hay ciertas implicaciones epistémicas que pueden derivarse de ellos.
Anciano (Referencia Anciano2025) se centra en los resultados de LIGO/Virgo, que afirmaron la primera "detección directa" de ondas gravitacionales y la primera "observación directa" de una fusión de agujeros negros binarios (ver Collins Referencia Collins2017, para una historia detallada de este resultado). Cuando se trata de la detección de ondas gravitacionales, la calificación de franqueza estaba destinada a distinguir los nuevos resultados de las observaciones de la década de 1970 del púlsar Hulse-Taylor, un sistema estelar binario. Esas observaciones revelaron un decaimiento orbital en el púlsar: la distancia entre los dos compañeros había disminuido con el tiempo debido a una pérdida de energía en el sistema. La pérdida de energía correspondió exactamente a la pérdida de energía esperada debido a las ondas gravitacionales. Esto se considera ampliamente como una evidencia convincente de la existencia de ondas gravitacionales. Por el contrario, el consorcio LIGO/Virgo detectó ondas gravitacionales por primera vez en un detector terrestre: las ondas gravitacionales causaron una ligera perturbación en dos rayos láser perpendiculares que se reflejaban en espejos colgantes. Para su primera detección (así como la mayoría de las posteriores), la señal se identificó haciéndola coincidir con una forma de onda esperada para las ondas gravitacionales. Con base en la señal detectada, se infirió que las ondas gravitacionales se debían a una fusión binaria de agujeros negros.Nota a pie de página28
Basándose en el trabajo de Hacking, Shapere, Franklin y Parker, Elder (2025) argumenta que la afirmación de franqueza de la colaboración LIGO/Virgo estaba justificada en el caso de la detección de ondas gravitacionales, lo que la diferencia del púlsar de Hulse-Taylor. Elder primero señala que tanto la detección de LIGO / Virgo como las observaciones de púlsar de Hulse-Taylor requieren detectores complejos (interferómetros o telescopios) y varios supuestos de modelado. Por lo tanto, ambas detecciones son de hecho inferencias de datos sin procesar (lecturas de instrumentos) al fenómeno de las ondas gravitacionales. Sin embargo, la detección de LIGO/Virgo fue directa porque:
los interferómetros LIGO son detectores de ondas gravitacionales. La "lectura del instrumento en bruto" son datos de deformación, que representan una característica de la entidad que se está midiendo: la deformación asociada con una onda gravitacional que pasa. Al modelar este sistema, el interferómetro puede esencialmente ser un cuadro negro como un mapeo del sistema objetivo a una representación selectiva de ese sistema.(9)
La razón por la que el interferómetro puede ser encerrado en la inferencia de los datos brutos a una señal de ondas gravitacionales, es que el interferómetro ha sido adecuadamente calibrado y probado como un detector de ondas gravitacionales. Contrasta esto con las observaciones de púlsar de Hulse-Taylor, que Elder clasifica como indirectas. Allí, los instrumentos en los que los científicos podían intervenir para calibrar y probar era el radiotelescopio. El instrumento era un detector de ondas electromagnéticas, no de ondas gravitacionales. La inferencia a las ondas gravitacionales requirió una capa adicional de inferencia sobre un sistema objetivo separado (el púlsar). Esta capa de inferencia no podía ser una caja negra basada en el conocimiento preexistente del detector (10). Es importante destacar que Elder no quiere adjuntar ninguna evaluación general a la franqueza o indirecta: ambos tipos pueden ser epistémicamente poderosos o sospechosos. Más bien, la distinción indica que hay diferentes desafíos que superar para garantizar la confiabilidad de la detección dependiendo de si es directa o indirecta (10).
Elder evalúa además si la afirmación de una "observación directa" de una fusión de agujeros negros binarios por parte de la colaboración LIGO / Virgo estaba justificada, y concluye que no lo estaba. La inferencia de la fusión binaria del agujero negro se basó en un modelo tanto del detector de ondas gravitacionales como de la señal de ondas gravitacionales detectada (Elder, Referencia Anciano2025, 10). Como tal, fue más similar a las observaciones de púlsar de Hulse-Taylor como evidencia de ondas gravitacionales, que a las detecciones de LIGO / Virgo.
El análisis de Elder de la (in)directividad también se puede aplicar a la evidencia de que Sgr A* es un agujero negro supermasivo. Recordemos que la primera evidencia sólida consistió en observaciones a largo plazo de estrellas que orbitan el objeto en el centro galáctico. Su velocidad orbital era tan alta que el objeto necesitaba ser extremadamente masivo. La inferencia de la presencia de un agujero negro supermasivo requirió tanto modelar el telescopio utilizado para las observaciones, como las estrellas en órbita. Skulberg y Elder (Referencia Skulberg y Elderpróximo) concluyen que esto califica como una inferencia indirecta en el relato de Elder.
Esta indirecta también parece estar en la raíz de algunas discusiones filosóficas sobre la fuerza de la evidencia de que Sgr A* es un agujero negro supermasivo antes de los resultados del EHT. Dada su inobservabilidad intrínseca, Eckart et al. (Referencia Eckart, Hüttemann y Kiefer2017) plantean una preocupación de subdeterminación: si bien un agujero negro supermasivo es una posible explicación para el movimiento de las estrellas en órbita, existen algunas explicaciones alternativas como GRAVASTARS o estrellas de bosones. En otras palabras, los modelos no eran lo suficientemente específicos como para descartar empíricamente alternativas. Doboszewski y Lehmkuhl (Referencia Doboszewski, Lehmkuhl, Boyd, Baerdemaeker, Heng y Matarese2023, 233-234) argumentan que la inferencia a un agujero negro supermasivo toma la forma de una inferencia a la mejor explicación. Esta reconstrucción no elimina la subdeterminación, en su opinión, esto requeriría sondear la geometría del espacio-tiempo justo fuera de un agujero negro, pero ayuda a comprender la naturaleza de la subdeterminación.
La subdeterminación no es perniciosa. Incluso sin pruebas concluyentes para eliminar alternativas, hay varias razones para no preocuparse demasiado por la subdeterminación de la naturaleza de Sgr A*. Primero, como Eckart et al. (Referencia Eckart, Hüttemann y Kiefer2017) argumentan que muchas de las explicaciones alternativas sufren graves desafíos teóricos, incluido el hecho de que algunas probablemente habrían colapsado en un agujero negro durante la fase de formación o acreción. En segundo lugar, el EHT ha proporcionado nueva evidencia empírica para Sgr A*: ha ajustado significativamente las estimaciones de tamaño para el horizonte al orden del radio de Schwarzschild. Esto también explica por qué el comunicado de prensa del EHT que anuncia los resultados de Sgr A* promociona las observaciones como la "primera evidencia visual directa" de que Sgr A* es un agujero negro supermasivo (Event Horizon Telescope, 2022).
Finalmente, ¿cómo se desarrollan los esfuerzos de imágenes de EHT en lo que respecta al relato de Elder sobre la observación directa o indirecta? El EHT utiliza una técnica llamada "interferometría de línea de base muy larga" (VLBI). El concepto básico es el siguiente: los telescopios colocados alrededor de la tierra observan simultáneamente el mismo objeto, Sgr A*, varios días seguidos. Esto genera enormes cantidades de datos. Al combinar inteligentemente las imágenes de los diferentes telescopios, los científicos pueden "llenar los vacíos" entre los diferentes telescopios. Como resultado, en la práctica han creado un telescopio del tamaño de toda la Tierra, un tamaño que es esencial para poder observar un objeto tan lejano y tan compacto como Sgr A*.Nota a pie de página29
Anciano (Referencia Anciano2025, 10-11) (véase también Skulberg y Elder, Referencia Skulberg y Elderpróximo) reconoce que este caso es difícil de evaluar. Por un lado, los datos en bruto son sobre visibilidades, no sobre un agujero negro. Para llegar a la imagen del agujero negro publicada por la colaboración EHT, se requirieron algoritmos de imágenes complejos. Por otro lado, se podría argumentar (y esto se refleja en el lenguaje utilizado por los científicos) que el instrumento relevante en este caso incluye todos los telescopios individuales, así como los algoritmos de imagen. El instrumento relevante es el telescopio del tamaño de la Tierra. En la primera lectura, Elder sugiere que las imágenes de EHT contarían como indirectas; en el segundo como directo.
El caso se complica aún más por el hecho de que necesitamos ser más precisos sobre cuál es exactamente el fenómeno objetivo: el agujero negro interior, exterior o el horizonte de eventos (Doboszewski y Lehmkuhl, Referencia Doboszewski, Lehmkuhl, Boyd, Baerdemaeker, Heng y Matarese2023, 13)? Hay razones por las que el interior de un agujero negro es, en principio, inobservable para un observador externo: está rodeado por un horizonte de eventos. Si el EHT afirma haber hecho una observación directa, seguramente solo puede ser del exterior del agujero negro, y específicamente de sus efectos sobre los materiales circundantes en forma de discos y chorros de acreción. Por supuesto, esto sugiere que es plausible que ninguna observación de un agujero negro sea directa. Que así sea. Como enfatiza Elder, no hay ninguna razón por la que esto deba impedirnos aprender mucho sobre los agujeros negros a partir de observaciones indirectas de todos modos.
Para concluir esta discusión sobre las detecciones directas de ondas gravitacionales o agujeros negros, quiero reiterar que ninguna de las llamadas observaciones directas es ni remotamente similar a la observación a simple vista. Todos ellos dependen en gran medida de la instrumentación y varios tipos de simulaciones. Doboszewski y Elder (Referencia Doboszewski y Elder2025) han analizado recientemente el papel de las simulaciones en los resultados de LIGO/Virgo y en las observaciones de EHT, y en qué contexto estas simulaciones conducen a un razonamiento circular en las inferencias extraídas. Volveré al tema de las simulaciones por computadora en la Sección 6.3.
5.3 Detección 'indirecta': radiación de Hawking y experimentos analógicos
A estas alturas debería estar claro que los agujeros negros son notoriamente difíciles de acceder empíricamente. La sección anterior describió algunas características de los agujeros negros que se pueden detectar a través de sus efectos en su entorno, pero hay otras características predichas que no son detectables. Una de esas características es la radiación de Hawking, una radiación de cuerpo negro predicha emitida por agujeros negros. Este fenómeno es una de las predicciones más cruciales de la termodinámica de los agujeros negros.Nota a pie de página30 También es mucho más débil que el CMB. Esto hace que sea poco probable que cualquier tecnología humana pueda detectar la radiación de Hawking. Evans y Thébault (Referencia Evans y Thébault2020) clasifican la radiación de Hawking como «inmanipulable e inaccesible (en la práctica)».
Dado que la radiación de Hawking es una piedra angular de la termodinámica de los agujeros negros, los físicos han tratado de encontrar formas de evitar su inaccesibilidad: los llamados experimentos de gravedad analógica. Siguiendo una sugerencia inicial de Unruh (Referencia Unruh1981), estos experimentos tienen como objetivo crear 'agujeros tontos', sistemas manipulables que son similares a los agujeros negros, de modo que uno esperaría que un efecto análogo a la radiación de Hawking fuera observable en el sistema manipulable.Nota a pie de página31 Desde la primera propuesta, el campo ha crecido significativamente (Field, Campo de referencia2021a). Pero aún queda la esperanza de que uno pueda aprender sobre los agujeros negros a partir de experimentos de laboratorio bastante sencillos. Esto plantea la cuestión de si esta esperanza está justificada, es decir, si los experimentos analógicos pueden ofrecer una confirmación genuina de las hipótesis sobre los agujeros negros o no.
Antes de abordar la cuestión de la confirmación, se necesitan más detalles sobre lo que diferencia a los experimentos analógicos de los experimentos regulares. En lo que sigue, el "sistema fuente" se refiere al sistema experimental en el que se puede intervenir activamente en el laboratorio, y el "sistema objetivo" es el sistema sobre el que se quieren sacar conclusiones basadas en lo que se aprende del sistema fuente. Según Crowther, Linnemann y Wüthrich (Referencia Crowther, Linnemann y Wüthrich2021), lo que diferencia a los experimentos analógicos de los experimentos más convencionales es que en los experimentos convencionales, el sistema de origen y destino "se supone que es [...] el mismo tipo de sistema con fines de interés" (S3709). En experimentos analógicos, el sistema de origen y destino "se supone que es [...] el mismo tipo de sistema, [...] [pero el sistema de destino] es inaccesible en las condiciones pertinentes para confirmar que en realidad es el mismo tipo de sistema que [el sistema de origen] a efectos de interés" (S3709-S3710). Por lo tanto, la principal diferencia entre los experimentos convencionales y analógicos es si tenemos acceso al objetivo para asegurarnos de que sea del mismo tipo que el sistema fuente.
Evans y Thébault (Referencia Evans y Thébault2020) rechazan esta definición al mostrar que la inaccesibilidad de un objetivo no implica automáticamente que sea imposible extraer ningún tipo de inferencia sobre ese objetivo. Por ejemplo, se confirmó que los interiores estelares son del mismo tipo que los sistemas de laboratorio convencionales en física nuclear, a pesar de que los interiores estelares son inaccesibles. En cambio, Evans y Thébault se centran en la naturaleza de la inferencia entre la fuente y el objetivo. Mientras que en los experimentos convencionales se supone que la fuente y el objetivo son del mismo tipo, este no es el caso de los experimentos analógicos. En los experimentos analógicos, los sistemas de origen y destino son de tipos diferentes pero análogos. Más precisamente, siguiendo el campo (Campo de referencia2021b): En experimentos analógicos, la fuente y el objetivo son de un tipo diferente a nivel micro, lo que significa que los marcos de modelado para describir sus comportamientos a nivel micro son distintos (por ejemplo, gravedad y dinámica de fluidos), pero no obstante muestran un comportamiento similar a nivel macro. Debido a que los sistemas de origen y destino son de diferentes tipos a nivel micro, la confiabilidad de la fuente al objetivo requiere un nuevo tipo de justificación en comparación con los experimentos regulares.
La clasificación de Field aclara por qué la cuestión de la confirmación es polémica para los experimentos analógicos. La relación entre la fuente y el destino es de analogía y, como coinciden todos los autores de la literatura, las analogías no son confirmatorias (Crowther et al., Referencia Crowther, Linnemann y Wüthrich2021; Dardashti, Thébault y Winsberg, Referencia Dardashti, Thébault y Winsberg2017; Campo Campo de referencia2021b).
A pesar de esta dificultad, Dardashti et al. (Referencia Dardashti, Thébault y Winsberg2017) argumentan que los experimentos analógicos pueden proporcionar confirmación si se cumplen las siguientes condiciones: los marcos de modelado para los sistemas de origen y destino son adecuados dentro de sus respectivos dominios, y los dos marcos son lo suficientemente similares como para que exista un isomorfismo entre ellos dentro de los dominios de aplicabilidad relevantes. En el caso de los experimentos de gravedad analógica, confían en que el isomorfismo y la adecuación del modelo del sistema fuente están suficientemente establecidos en los dominios de aplicabilidad relevantes. La dificultad radica en demostrar la idoneidad del marco de modelado para el agujero negro: ¿cómo se puede establecer esto, dado que los científicos tuvieron que recurrir a experimentos analógicos debido a la inaccesibilidad de los agujeros negros en primer lugar? Dardashti et al. argumentan que los argumentos de universalidad pueden dar razones para creer en la idoneidad del marco de modelado de agujeros negros.
Crowther et al. (Referencia Crowther, Linnemann y Wüthrich2021) discrepan con este último paso. Señalan que estos argumentos de universalidad asumen que los agujeros negros se pueden modelar, como lo hizo originalmente Hawking, dentro de la gravedad semiclásica. Sin embargo, existen problemas bien conocidos con este enfoque, entre ellos el problema transplanckiano (abordado por Crowther et al. Referencia Crowther, Linnemann y Wüthrich2021; Thébault Referencia Thébault, Dardashti, Dawid y Thébault2019). Por lo tanto, a Crowther et al. les preocupa que el argumento de universalidad que se requiere para que los experimentos analógicos sean confirmatorios asume la idoneidad del marco de modelado que se supone que debe establecer.
Basándose en un análisis bayesiano de experimentos analógicos de Dardashti et al. (Referencia Dardashti, Hartmann, Thébault y Winsberg2019), Campo (Campo de referencia2021b, Sec. 2.2.1) ofrece un análisis más preciso de las circunstancias en las que los experimentos análogos pueden ser genuinamente confirmatorios. Field muestra que las condiciones para una confirmación genuina son muy débiles: solo requiere que haya un argumento de universalidad con validez indeterminada, y que debe haber una posibilidad de que este argumento de universalidad sea positivamente relevante tanto para el sistema de destino como para el de origen. Por lo tanto, Field está de acuerdo con Evans y Thébault (Referencia Evans y Thébault2020, Sec. 4.1.1) que negar el poder confirmatorio de los experimentos analógicos colapsa en el escepticismo inductivo.
Sin embargo, Field muestra además que esto no implica que el poder confirmatorio de los experimentos analógicos sea significativo. Esto se debe a que la importancia requiere que el argumento de la universalidad sea realmente relevante tanto para el sistema objetivo como para el de origen. Y el problema en el caso de los experimentos de gravedad analógica es que, como argumentan Crowther et al. (Referencia Crowther, Linnemann y Wüthrich2021), actualmente no existe tal argumento de universalidad.
Field identifica dos formas en que se pueden establecer los argumentos de relevancia de la universalidad: o bien el conocimiento de las microestructuras del sistema de destino y de origen revela que pertenecen a la misma clase de universalidad, o bien las pruebas empíricas del comportamiento macroscópico del objetivo y la fuente revelan que pertenecen a la misma clase de universalidad. No hace falta decir que, a partir de ahora, ninguno de los dos está disponible para los agujeros negros debido a su inaccesibilidad actual. No obstante, Field tiene la esperanza de que se puedan lograr progresos, por ejemplo, a través de las observaciones discutidas en las secciones anteriores, de modo que haya un futuro para los experimentos de gravedad analógica.
Dos notas finales están en orden. Primero, Mathie (Referencia Mathie, Boyd, Baerdemaeker, Heng y Matarese2023) da un argumento adicional a favor del poder confirmatorio de los experimentos analógicos. Mathie muestra que la inferencia analógica entre agujeros negros y agujeros tontos que sustenta los experimentos de gravedad analógica y la inferencia analógica que sustenta la termodinámica de los agujeros negros están crucialmente vinculadas. Este vínculo sugiere que podría haber una tensión entre aferrarse a la termodinámica de los agujeros negros y la radiación de Hawking, por un lado, y descartar los experimentos de gravedad analógica, por el otro. Segundo, campo (Campo de referencia2021a) argumenta que hoy en día, la confirmación de hipótesis sobre objetivos inaccesibles (agujeros negros, pero también el universo primitivo) ya no es el único foco de los experimentos analógicos. Field identifica dos nuevos roles: explorar el comportamiento de los sistemas analógicos en sí mismos, así como investigar si ciertos fenómenos, como la radiación de Hawking, se generalizan. Por lo tanto, si bien debemos seguir siendo modestos por ahora sobre el potencial de los experimentos de gravedad analógica para afectar nuestra comprensión de los agujeros negros, estos nuevos roles sugieren que los experimentos de laboratorio podrían desempeñar un papel interesante más ampliamente en el contexto de la cosmología y la astrofísica.
6 Empirismo, epistemología y ética
Las cuatro secciones anteriores han introducido puntos focales para la física novedosa que emergen de la cosmología y la astrofísica contemporáneas, y algunos aspectos que merecen un escrutinio filosófico. A continuación, quiero dar un paso atrás y examinar la metodología de la cosmología y la astrofísica en general. Destaqué en la introducción que la cosmología y la astrofísica empujan los límites de la ciencia empírica. Ahora podemos precisar qué características del proceso de investigación plantean desafíos epistémicos genuinos y qué características son meras peculiaridades sin implicaciones epistémicas claras. ¿Qué justifica la confianza en la cosmología y la astrofísica, y qué límites de la epistemología empirista enfrentan estos campos?
Comienzo refutando un concepto erróneo que ha sido argumentado por Hacking: que la falta de manipulación y experimentación "activa" hace que la astrofísica y, por extensión, la cosmología no sean una ciencia real (Sección 6.1). Esta refutación no implica que la cosmología y la astrofísica no enfrenten serias dificultades. Primero, existen ciertas limitaciones en su base empírica, no debido a la falta de experimentación per se, sino debido a que solo tenemos acceso empírico a un universo, nuestro punto de vista particular dentro de ese universo y las peculiaridades de nuestra galaxia de origen (Sección 6.2). En segundo lugar, la cosmología y la astrofísica requieren modelos multiescala a un nivel sin precedentes. Conectar estas diferentes escalas, tanto en términos de observaciones como de simulaciones, trae una serie separada de desafíos epistémicos (Sección 6.3). Finalmente, la cosmología, la astrofísica y la astronomía se basan en observaciones de telescopios. Los observatorios terrestres se sitúan en un contexto sociológico y ambiental más amplio. Las implicaciones éticas que rodean tanto la historia de estas disciplinas como la creación de nuevos observatorios se discuten en la Sección 6.4.
6.1 Refutando la objeción de la falta de experimento
No se puede poner el universo, una galaxia o una estrella en un laboratorio. Este hecho obvio fue tomado como un gran desafío para la astronomía y la astrofísica por Hacking (Piratería de referencias1989). Al examinar el caso de las lentes gravitacionales, Hacking argumentó que los astrofísicos simplemente construyen varios "modelos sobre modelos sobre modelos" (576). Esta abundancia de modelos era, según Hacking, sintomática de un problema más amplio: estos modelos permiten a los astrofísicos "salvar los fenómenos" (577). Por el contrario, el objetivo de las ciencias naturales es "manipular e interferir con el mundo para comprenderlo" (577). De hecho, Hacking argumentó que las ciencias naturales "surgieron" cuando adoptaron el método experimental. Dado que los métodos de la astronomía no han cambiado desde la antigüedad, la astronomía "no es una ciencia natural en absoluto" (577).Nota a pie de página32 Si bien la redacción de Hacking puede ser polémica, es plausible que la objeción pueda tener algún atractivo intuitivo. Seguramente, la falta de experimentación plantea un serio desafío.
Todos los aspectos del argumento de Hacking han obtenido un rechazo significativo. Shapere (Referencia Shapere1993) refuta la revisión de Hacking sobre las lentes gravitacionales, tanto en términos de contenido científico como en términos de que es un área de investigación muy joven cuando Hacking la describió por primera vez. Anderl (Referencia Anderl y Humphreys2016) señala que el uso de modelos es omnipresente en toda la ciencia. Pero la mayor parte de la atención se ha centrado en el rechazo de Hacking de la astrofísica como ciencia debido a la falta de intervención, que Anderl (Referencia Anderl y Humphreys2016, 657) enmarca útilmente como una preocupación por la subdeterminación: ¿es el caso de que la falta de intervención significa que la astrofísica es más susceptible a las preocupaciones sobre la subdeterminación y, por lo tanto, solo puede esperar salvar los fenómenos?
Se han utilizado al menos tres estrategias para responder a la preocupación por la subdeterminación: (i) argumentar que la astrofísica hace uso de experimentos según los propios criterios de Hacking (Boyd, Referencia Boyd, Boyd, Baerdemaeker, Heng y Matarese2023; Sandell Referencia Sandell2010), a veces combinado con señalar que el "uso" de entidades en la investigación y la "intervención" en dichas entidades no son obviamente coextensivos (Doboszewski y Lehmkuhl, Referencia Doboszewski, Lehmkuhl, Boyd, Baerdemaeker, Heng y Matarese2023; Shapere, Referencia Shapere1993); (ii) aceptan, a veces implícitamente, la distinción observación/experimento como epistémicamente significativa, pero argumentan que la falta de experimento puede superarse sin implicar una pérdida de estatus científico: esta respuesta está explícitamente vinculada o refleja las discusiones sobre la epistemología de las ciencias históricas en general (Anderl, Referencia Anderl y Humphreys2016; Mayor Referencia Elder, Boyd, Baerdemaeker, Heng y Matarese2023b, Referencia Anciano2024); y (iii) argumentan que la distinción entre experimento-qua-intervención física, por un lado, y observación, por el otro, no puede servir como guía para los juicios epistémicos (Boyd y Matthiessen, Referencia Boyd y Matthiessen2024).
Como ejemplo de la primera estrategia, Boyd (Referencia Boyd, Boyd, Baerdemaeker, Heng y Matarese2023) discute casos del campo de la «astrofísica de laboratorio». Los ejemplos incluyen experimentos de producción de materia oscura y experimentos de agujeros negros analógicos, pero también espectroscopia, astrofísica nuclear basada en aceleradores e investigación de supernovas de laboratorio, el principal estudio de caso de Boyd. La astrofísica de laboratorio debería, según la clasificación de Hacking, ser una contradicción en los términos. Boyd responde que:
Lo que hace que la astrofísica sea astrofísica es que investiga la naturaleza de los objetos y procesos celestes utilizando un conjunto de recursos de la física. Y lo que hace que la astrofísica de laboratorio sea astrofísica de laboratorio, es que lleva a cabo tales investigaciones utilizando experimentos terrestres. (Boyd, Referencia Boyd, Boyd, Baerdemaeker, Heng y Matarese2023, 17)
Boyd argumenta que la inferencia del experimento terrestre al sistema objetivo en el espacio ocurre a través del argumento habitual para la validez externa de un experimento, es decir, argumentando que los estados probados en el laboratorio y los instanciados por los sistemas astrofísicos son tokens del mismo tipo (23-25). Si tiene éxito, parece que no hay razón para estar más preocupado por la subdeterminación en la astrofísica de laboratorio que en otras ciencias experimentales, socavando así el argumento de Hacking.
Curiosamente, Boyd argumenta que en el caso en discusión, los argumentos de validez externa en realidad fallan. Sin embargo, Boyd enfatiza que esto no habría quedado claro si uno se hubiera centrado en enmarcar el experimento como "experimental" y, por lo tanto, "epistémicamente mejor". De hecho, un corolario de esta primera estrategia es que, a veces, las observaciones son más adecuadas para una pregunta de investigación en particular. Por ejemplo, Elder (Referencia Elder, Patton y Curiel2023a) señala que LIGO/Virgo es capaz de sondear nuevos regímenes de relatividad general, aunque hay una clara falta de manipulación (véase también Elder Referencia Anciano2025). Un buen ejemplo de cómo las observaciones han informado modelos realistas del interior de las estrellas es discutido por Suárez (Referencia Suárez, Boyd, Baerdemaeker, Heng y Matarese2023). En la física de partículas moderna, la primera evidencia empírica de la existencia de neutrinos provino de observaciones del Sol. Y el universo es gracias a Zel'dovich más conocido como el "acelerador del pobre", porque el universo primitivo y los interiores estelares pueden alcanzar escalas de energía que nunca se pueden recrear en experimentos terrestres.
¿Qué pasa con la segunda estrategia? Anderl (Referencia Anderl y Humphreys2016) conecta las preocupaciones sobre la subdeterminación con un debate sobre las ciencias históricas. Las ciencias históricas tienen como objetivo reconstruir las cadenas causales que condujeron a las observaciones actuales sin intervenir en esa cadena causal hipotética. La respuesta de Anderl a la preocupación por la subdeterminación es doble. Primero, Anderl sigue el argumento de Cleland (Referencia Cleland2002) de que la ciencia histórica estereotipada utiliza la llamada estrategia de Sherlock-Holmes: encontrar una explicación causal que pueda unificar todos los rastros observados y discriminar entre explicaciones en competencia utilizando evidencia de "pistola humeante". La falta de experimentación no es razón para preocuparse por la subdeterminación, debido a la asimetría temporal de la causalidad, continúa Cleland: una causa puede generar una variedad de rastros, de los cuales solo un subconjunto puede ser suficiente para identificar la causa original. Anderl está de acuerdo con la conclusión de Cleland de que no es obvio que la subdeterminación debida a auxiliares no identificados en entornos experimentales sea de ninguna manera menos fuerte que la subdeterminación debido a múltiples explicaciones de los rastros en entornos observacionales. Por lo tanto, si bien es cierto que los astrofísicos no pueden recrear activamente las cadenas causales en el laboratorio, no es obvio que eso cree un obstáculo epistémico significativo en comparación con las ciencias experimentales.
En segundo lugar, Anderl señala que no todos los tipos de investigación astrofísica son estereotípicamente ciencia histórica. Si bien algunas preguntas de investigación tratan sobre la reconstrucción de la historia causal de eventos singulares, gran parte de la astrofísica tiene como objetivo hacer declaraciones generales sobre tipos de objetos, desde estrellas de secuencia principal hasta supernovas de tipo II o galaxias elípticas.Nota a pie de página33 El universo contiene muchos ejemplos de cada una de estas clases: constituye un "laboratorio cósmico" (Anderl, Referencia Anderl y Humphreys2016, Sección 3.2). Debido a que los astrofísicos pueden observar tantos casos del mismo tipo, al menos pueden realizar "cuasi-experimentos". Los cuasi-experimentos comparan un grupo de control y un grupo de prueba que no se asignan al azar. Por lo tanto, requieren el uso de herramientas estadísticas y simulaciones para sacar conclusiones. Similar a la primera parte del argumento de Anderl, creo que es seguro concluir que este aspecto de la metodología astrofísica excluye cualquier conclusión sólida sobre la subdeterminación que es más preocupante en astrofísica que en otras áreas de investigación científica.
Agregaría un tercer punto a la respuesta de Anderl: como se discutió en la Sección 2.2.3, se ha argumentado de manera convincente que las ciencias históricas tienen una metodología mucho más rica que la estrategia de Sherlock Holmes (Currie, Referencia Currie2018; Referencia Novick, Currie, McQueen y Brouwer2020). Esto hace que sea aún más difícil sacar conclusiones de principios sobre cualquier ciencia histórica en su conjunto. Una clara ilustración de este punto proviene de Yao (Referencia Yao2023). Yao ha argumentado recientemente que la mayoría de las inferencias en la astronomía contemporánea no se basan en experimentos naturales o cuasi-experimentos, sino más bien en "situaciones de Rosetta-Stone" (1389). Estos son casos en los que ciertos objetos de token tienen propiedades específicas que están vinculadas a varias contingencias históricas. Estas propiedades proporcionan información externa sobre el token de interés que ayuda a hacer inferencias sobre las propiedades internas del token. Yao da el ejemplo de cómo las estrellas que forman parte del mismo cúmulo implica que nacen en el mismo punto espaciotemporal, y que solo su masa variará. Este tipo de información puede ayudar a construir una compleja red de modelos, por ejemplo, de evolución estelar, que puede dar cuenta de una amplia gama de conjuntos de datos. Debido a los modelos y conjuntos de datos entrelazados, es muy poco probable que sea posible una red compleja alternativa. En otras palabras, la subdeterminación es limitada en situaciones de Rosetta-Stone. Por lo tanto, desde la perspectiva de la epistemología de las ciencias históricas, las preocupaciones sobre la subdeterminación tendrán que juzgarse caso por caso.
Este último punto sobre la rica metodología de las ciencias históricas se relaciona con la tercera estrategia para responder a Hacking: argumentar en contra de establecer una distinción fuerte entre experimento como intervención física y observación. Boyd y Matthiessen (Referencia Boyd y Matthiessen2024) identifican y descartan dos argumentos a favor de la distinción y la superioridad epistémica de los experimentos:
Control CP. Los experimentos permiten un control más detallado sobre la producción de datos de forma aislada de los factores de confusión, en igualdad de condiciones.
CP Causalidad. Los experimentos permiten mejores inferencias causales a partir de datos, en igualdad de condiciones.(Boyd y Matthiessen, Referencia Boyd y Matthiessen2024, 114)
Boyd y Matthiessen muestran que los dos objetivos expresados, la discriminación de hipótesis y la inferencia causal, se pueden lograr tanto a través de la observación como de la experimentación, y que depende del contexto de investigación qué método empírico se adaptará mejor a ese objetivo. Por lo tanto, proponen cambiar el enfoque a características específicas de la investigación empírica, como la relación señal-ruido o la caracterización de fondo, como una forma de juzgar la superioridad epistémica.
Esto me parece exactamente correcto, y una forma más fructífera de abordar la epistemología de la cosmología y la astrofísica. De hecho, las dos primeras respuestas estratégicas son en cierto modo ilustraciones del punto general de Boyd y Matthiessen. El hecho de que exista un campo llamado "astrofísica de laboratorio" o que los investigadores de agujeros negros apelen a experimentos analógicos revela que los propios científicos no piensan en términos de ciencias "observacionales" o "experimentales", sino más bien en términos de qué método es el más apropiado para un objetivo específico (ver también la configuración de las búsquedas de materia oscura discutida en la Sección 3.3). Además, aparte de la dependencia de varios tipos de experimentos, Abelson (Referencia Abelson2022b) ha demostrado además que la astronomía multimensajero, donde se combinan la evidencia de rayos cósmicos, ondas electromagnéticas, ondas gravitacionales y neutrinos, es una herramienta extremadamente poderosa. Abelson argumenta que el valor de la astronomía multimensajero radica en el hecho de que puede conducir a la eliminación de diferentes hipótesis plausibles, en otras palabras, permite la mitigación de la subdeterminación. El hecho de que la cosmología y la astrofísica sean capaces de superar la subdeterminación a menudo sin intervenir activamente en sus objetivos (como sucedió en el debate MOND/materia oscura) muestra nuevamente que la distinción observación/experimento como guía epistémica de principios es discutible.
6.2 Generalización basada en muestras limitadas
Mostrar que la presunta falta de experimentación no plantea un problema de principios para la cosmología y la astrofísica no significa que estemos completamente fuera de peligro. Hay, como en cualquier área de la investigación científica, desafíos epistémicos genuinos con respecto a la evidencia empírica limitada, algunos comunes a ambos campos, otros únicos a uno. Es importante destacar que estos desafíos no se deben a la falta de experimentación. Más bien, se deben a varias formas en las que poseemos un punto de vista único en nuestro universo y cómo eso afecta ciertas observaciones específicas que (no) podemos hacer. Por lo tanto, comprender la naturaleza de estos desafíos, así como lo que se requiere para una respuesta satisfactoria, requiere un análisis filosófico más cuidadoso. Aquí, repaso los más importantes.
6.2.1 Subdeterminación a mayor escala
Las cuatro secciones anteriores discutieron la física novedosa que se ha introducido en el contexto de la cosmología y la astrofísica. Muchos de estos fenómenos a menudo no se pueden probar independientemente del marco teórico que condujo a su introducción. Por ejemplo, la inflación no se puede recrear en ningún lugar fuera del universo primitivo. Los modelos de energía oscura que tienen como objetivo proporcionar una explicación dinámica para la constante cosmológica distinta de cero probablemente también estén fuera del alcance de cualquier experimento a escalas más pequeñas que el universo. Pero la inflación y la energía oscura se introdujeron para dar cuenta de las observaciones en regímenes mucho más allá de donde se han probado las teorías de fondo como la relatividad general. Smeenk y Ellis (Referencia Smeenk, Ellis y Zalta2017) argumentan que esto introduce un nuevo tipo de subdeterminación: ¿cómo sabemos si las alteraciones propuestas no están enmascarando que la teoría de fondo necesita ser modificada? Esta evaluación tiene que realizarse caso por caso.
6.2.2 Varianza cósmica
La cosmología, a diferencia de la astrofísica, se ocupa de un objetivo único: solo hay un universo al que tenemos acceso empírico. Sin embargo, muchas predicciones que se derivan de Λ. Los CDM son de naturaleza estadística, el más famoso es el CMB. Eso significa que cuando el universo observado muestra características que se desvían de esas predicciones estadísticas, hay una pregunta abierta sobre si estas características son simplemente una casualidad estadística o si son anomalías genuinas que justifican la modificación ΛCDM (Smeenk & Ellis, Referencia Smeenk, Ellis y Zalta2017). Los ejemplos incluyen el punto frío en el CMB y los problemas de ajuste fino resueltos por el inflado (Sección 2.1). Tenga en cuenta que este desafío no surge tan comúnmente en astrofísica porque el universo a menudo produce varias instancias del mismo tipo de objeto (Anderl, Referencia Anderl y Humphreys2016).
6.2.3 El principio cosmológico Λ
CDM representa la evolución del universo a la mayor escala mediante el empleo de modelos FLRW (perturbados). Como se explica en la Sección 1.2, estos modelos son soluciones a las ecuaciones de campo de Einstein si se asume el llamado Principio Cosmológico, es decir, que el universo es homogéneo e isotrópico en las escalas más grandes. Pero, ¿cómo se justifica este principio cosmológico como aplicable a nuestro universo real? Nota a pie de página34
Smeenk (Referencia Smeenk2020) argumenta que la mejor justificación es a través de la suposición del llamado principio copernicano como constitutivo de la búsqueda de la cosmología física. El principio copernicano, en la formulación preferida de Smeenk, es una afirmación sobre la evidencia: "podemos tomar plausiblemente algunos tipos de observaciones como una muestra representativa de un conjunto de observaciones posibles" (Smeenk, Referencia Smeenk2020, 224). En otras palabras, el principio copernicano postula que las observaciones cosmológicas no están sesgadas por nuestra presencia específica en un lugar particular del universo como observadores (la excepción aquí son las observaciones afectadas por la varianza cósmica). Si aceptamos el principio copernicano, argumenta Smeenk, hay ciertos resultados teóricos que implican la homogeneidad del universo basada en la isotropía observada del CMB. Y debemos aceptar el antecedente aquí porque el principio copernicano es "un principio constitutivo para la búsqueda de la cosmología física" (225). En otras palabras, si no aceptamos el principio copernicano, no tiene sentido la cosmología física, es decir, la cosmología como ciencia empírica, en absoluto: toda nuestra evidencia solo sería representativa de nuestro entorno local, sin proporcionar ninguna base inductiva para inferencias globales en absoluto.
6.2.4 La tipicidad de la Vía Láctea
Como se mencionó anteriormente, el desafío de un punto de vista único en un objeto único es menos apremiante para la astrofísica que para la cosmología. Sin embargo, todavía hay un problema análogo a la variación cósmica. Es decir, las observaciones más detalladas de la estructura interior de una galaxia o un halo galáctico se basan en observaciones de la Vía Láctea (a veces complementadas con observaciones de Andrómeda, nuestra galaxia vecina más cercana en el Grupo Local). Pero, ¿cómo sabemos si la Vía Láctea es una instancia representativa de la población de galaxias de disco? Esta pregunta se vuelve aún más apremiante a la luz de los desafíos a pequeña escala para Λ CDM, discrepancias entre predicciones y observaciones en escalas (sub)galácticas (véase la sección 3.3). Sin embargo, es imposible determinar si estas inconsistencias son anomalías genuinas si no sabemos si las observaciones de la Vía Láctea se generalizan. Hacerlo injustificadamente, corre el riesgo de introducir un "sesgo copernicano" (Aragón-Calvo, Silk y Neyrinck, Referencia Aragón-Calvo, Seda y Neyrinck2022).
Por ejemplo, Licquia, Newman y Bershady (Referencia Licquia, Newman y Bershady2016) investigan si la Vía Láctea obedece a las típicas relaciones de escala galáctica como la relación Tully-Fisher, que vincula la masa de una galaxia con su luminosidad. Con respecto a la relación Tully-Fisher, encuentran que la Vía Láctea es típica y, por lo tanto, sugieren que "es un laboratorio adecuado para estudiar el mecanismo impulsor de la relación" (13). Pero el éxito en un área no implica el éxito en todas partes. El mismo estudio concluye además que la Vía Láctea es inusualmente compacta para una galaxia espiral según la relación de escala entre la luminosidad, la velocidad de rotación y el tamaño de la galaxia. Sugieren que esto podría deberse a que la Vía Láctea tiene una historia inusual, que también puede haber afectado a la población de galaxias satélite alrededor de la Vía Láctea (11).
Se están realizando esfuerzos para determinar la tipicidad de la Vía Láctea. Una estrategia reciente es el estudio de los llamados 'Análogos de la Vía Láctea' (MWA), galaxias fuera del Grupo Local que son en un aspecto u otro similares a la Vía Láctea (aunque tenga en cuenta que hay múltiples formas de definir MWA, ver Boardman et al. Referencia Boardman, Zasowski y Newman2020). Por ejemplo, la encuesta SAGA (Geha et al., Referencia Geha, Wechsler y Mao2017; Referencia Mao, Geha y Wechsler2021) estudia las poblaciones de galaxias satélite alrededor de MWA para determinar qué tan representativas son las poblaciones satélites en el Grupo Local, incluida la Vía Láctea, de la evolución de las galaxias en general. Pero, como muestra el ejemplo, hasta ahora no parece haber bases de principios para determinar qué características de la Vía Láctea se generalizan y cuáles no.
6.3 Modelado multiescala
La sección anterior discutió los desafíos que surgen debido a nuestro punto de vista limitado en un solo universo. Hay un conjunto separado de desafíos que se relacionan con el modelado multiescala. La cosmología y la astrofísica tienen como objetivo modelar sistemas en grandes rangos de longitudes y escalas de tiempo. Si bien la física relevante es en gran medida determinista, a diferencia, por ejemplo, de la ciencia del clima, donde la toma de decisiones humanas es relevante, el rango de escalas plantea obstáculos significativos.
6.3.1 Combinación de observaciones a diferentes escalas
Surge un primer desafío al combinar estimaciones de parámetros a partir de mediciones a diferentes escalas. Λ El MDL tiene al menos seis parámetros libres que deben determinarse mediante observaciones, desde el parámetro de densidad bariónica hasta el índice espectral del espectro de potencia del CMB. Por lo general, hay varias formas de establecer estos (y otros valores de parámetros derivados), que comúnmente se clasifican como "locales" (para escalas más pequeñas) o "globales" (para las escalas más grandes, como el CMB). Como Smeenk (Referencia Smeenk2020, 223) señala, "[a]cceptiendo el Λ el modelo MDL trae consigo el compromiso de tener en cuenta cómo los parámetros determinados a través de mediciones "globales" del [CMB] se relacionan con las mediciones "locales" de estos mismos parámetros". Resulta que este es un compromiso no trivial.
Uno de los parámetros clave en cosmología es el parámetro de Hubble H0 , que mide la tasa de expansión actual del universo. En 2001, el Proyecto Clave del Telescopio Espacial Hubble resolvió un debate de décadas al establecer su valor en H0=72±8kms−1Mpc−1 (Freedman et al., Referencia Freedman, Madore y Gibson2001). Este valor se basó en mediciones locales, por ejemplo, observaciones de desplazamientos al rojo de supernovas, pero también fue consistente con las determinaciones globales de H0 en ese momento. Sin embargo, desde este resultado histórico, ha comenzado a surgir una nueva tensión entre las determinaciones locales y globales, y la diferencia entre las dos ha alcanzado niveles significativos. Gueguen (Referencia Gueguen, Boyd, Baerdemaeker, Heng y Matarese2023) analiza el caso en detalle y muestra que actualmente no hay razones suficientes para creer que la tensión de Hubble es, de hecho, una crisis. Gueguen vincula esto con las discusiones sobre robustez y replicación (ver también Matarese y McCoy Referencia Matarese y McCoy2024), y argumenta que la clave para resolver la crisis de una forma u otra radica en rastrear los errores sistemáticos desconocidos. Sin embargo, tenga en cuenta que si esta tensión persiste, socavaría uno de los supuestos clave de Λ CDM sobre cómo se relacionan las mediciones a diferentes escalas.
Otro desafío para los esfuerzos de modelado multiescala viene en forma del "problema de la instantánea" (Jacquart Referencia Jacquart2020, véase también Anderl Referencia Anderl y Humphreys2016, 623, Smeenk & Gallagher Referencia Smeenk y Gallagher2020, 1223-1224): la mayoría de los objetos astrofísicos tienden a evolucionar en escalas de tiempo mucho más largas de lo que los humanos los han estado observando. Esto significa que cuando los astrofísicos modelan la evolución de, digamos, una estrella de secuencia principal, no pueden probar su modelo observando la evolución de una sola estrella. En cambio, observan muchas estrellas diferentes que se supone que están en diferentes etapas de esa evolución y que, por lo tanto, dan imágenes "instantáneas" de esa evolución. O, de manera similar, observan estrellas con desplazamientos al rojo más altos, que se encuentran en una etapa anterior de su evolución, y estrellas con desplazamientos al rojo más bajos, que se encuentran en una etapa posterior. Conectar estas instantáneas en una sola historia evolutiva requiere modelos complejos y simulaciones por computadora.
6.3.2 La epistemología de las simulaciones por computadora
Las simulaciones cumplen varios roles cruciales en cosmología y astrofísica (Anderl, Referencia Anderl y Humphreys2016; De Baerdemaeker y Boyd, Referencia De Baerdemaeker y Boyd2020; Jacquart, Referencia Jacquart2020; Massimi, Referencia Massimi2018; Smeenk y Gallagher, Referencia Smeenk y Gallagher2020). Conectan las instantáneas en un historial causal completo, pero también permiten derivar predicciones a partir de ΛCDM para múltiples escalas.
Por lo general, las simulaciones cosmológicas por computadora modelan la formación de la estructura del universo como se describe en Λ MDL a mayor escala. Mientras que las primeras simulaciones tendían a modelar únicamente la interacción gravitacional de la materia oscura (dominante en las escalas más grandes), las simulaciones más recientes también incluyen los llamados procesos hidrodinámicos como los vientos estelares y la retroalimentación de las supernovas. Estos procesos pueden tener lugar a una escala más pequeña, a veces incluso por debajo de la resolución de la simulación, pero se espera que tengan un efecto en la formación de estructuras a escalas mayores. Debido a la inclusión de dicha física no lineal, las simulaciones requieren la inclusión de métodos numéricos para resolver las ecuaciones del modelo. Dado su papel central en la práctica científica, surge la pregunta de cómo se puede establecer la confiabilidad de estas simulaciones (un desafío que no es exclusivo de la cosmología y la astrofísica). Después de todo, si la única forma en que los científicos pueden crear una historia a partir de instantáneas singulares o derivar predicciones de Λ CDM es a través de simulaciones, es crucial determinar que esa historia es precisa.
Lo que dificulta establecer la confiabilidad de las simulaciones es el hecho de que son epistémicamente opacas. Smeenk y Gallagher (Referencia Smeenk y Gallagher2020) identifican tres tipos diferentes de opacidad: i) opacidad debida a la intratabilidad de toda la gama de cálculos implicados en la simulación; (ii) opacidad debido a la incapacidad de asignar la culpa a un módulo particular de la simulación cuando algo sale mal. En particular, si bien diferentes módulos de simulación pueden ser responsables de modelar procesos físicos específicos, unirlos a menudo requiere correcciones ad hoc para garantizar que la simulación se comporte sin problemas; y (iii) opacidad debido a la capacidad de ajustar los parámetros libres de una simulación para generar el resultado deseado sin tener un control de lo que representan estos parámetros. Dadas estas diferentes fuentes de opacidad, ¿qué técnicas se pueden emplear para garantizar la confiabilidad de las simulaciones?
Una primera opción es el llamado ideal de "validación y verificación". De acuerdo con este ideal, la confiabilidad de una simulación solo podría establecerse separando estrictamente si la simulación resuelve con precisión las ecuaciones del modelo a través de sus métodos numéricos (verificación) y si los resultados de la simulación son una representación precisa del fenómeno objetivo (validación) (Kadowaki, Referencia Kadowaki, Boyd, Baerdemaeker, Heng y Matarese2023). La verificación debe completarse antes de que se pueda lograr cualquier validación. Sin embargo, Kadowaki (Referencia Kadowaki, Boyd, Baerdemaeker, Heng y Matarese2023) argumenta basándose en un estudio de pruebas de simulaciones magnetohidrodinámicas astrofísicas que este ideal no se satisface en la práctica y, de hecho, que no necesita ser satisfecho.
Otra estrategia sería comparar los resultados de la simulación con otra fuente confiable (Smeenk & Gallagher, Referencia Smeenk y Gallagher2020). Gueguen (Referencia Gueguensin fecha., 3) enumera tres tipos de puntos de referencia como las principales estrategias para evaluar la confiabilidad de las simulaciones astrofísicas y por computadora: comparar los resultados con soluciones (semi)analíticas, comparar los resultados con observaciones y comparar los resultados con otros resultados numéricos (ya sea a través de estudios de convergencia o comparaciones de códigos).
Los dos primeros tipos de puntos de referencia, soluciones analíticas a las ecuaciones fundamentales del modelo simulado y datos empíricos que no se utilizaron en la construcción de la simulación (es decir, datos que la simulación no se ajustó para que coincidan), serían ideales. El problema es que estas estrategias son "frustrantemente raras" (Smeenk y Gallagher, Referencia Smeenk y Gallagher2020, 1228). De hecho, la razón por la que se utilizan simulaciones suele ser que los cálculos requeridos son intratables y porque los datos requeridos son raros, recuerde el problema de la instantánea.
Pero tal vez se podrían usar otros resultados de simulación como punto de referencia. Una versión de esto viene en forma de "estudios de convergencia". Como Gueguen (Referencia Gueguen2020), la idea básica es la siguiente. Las simulaciones contienen muchos parámetros numéricos que no tienen ninguna restricción. Para determinar si el valor de estos parámetros tiene un efecto en la salida de la simulación, sus valores se varían sistemáticamente en una serie de ejecuciones de simulación. Esto proporciona información sobre el rango de valores de parámetro para los que la salida de la simulación no se ve afectada por el parámetro. Estos rangos forman los llamados "criterios de convergencia" bajo los cuales los resultados de la simulación son sólidos.
Gueguen (Referencia Gueguen2020) muestra que hay razones para ser escépticos acerca de que la convergencia sea un indicador de la confiabilidad de los resultados de la simulación. En primer lugar, la convergencia no es suficiente para establecer la confiabilidad, porque a veces puede darse el caso de que haya convergencia en dos regiones independientes del espacio de parámetros sin ninguna razón para creer que una región es la salida "real". En segundo lugar, la convergencia a veces puede ser el resultado de artefactos numéricos. Por lo tanto, la robustez en forma de estudios de convergencia no es suficiente para establecer la confiabilidad de los resultados de la simulación numérica.
Otra forma de utilizar las simulaciones como puntos de referencia es a través de las llamadas comparaciones de código. En las comparaciones de código, se comparan diferentes simulaciones entre sí para encontrar características invariantes en las simulaciones. A primera vista, esto permite una forma mucho más fuerte de robustez porque la robustez ahora se encuentra en diferentes simulaciones, con diferentes suposiciones y artefactos (Gueguen, Referencia Gueguensin fecha.). ¿Son las comparaciones de códigos una estrategia más prometedora para evaluar la confiabilidad de las simulaciones por computadora?
Gueguen (Referencia Gueguensin fecha.) argumenta que todavía hay preocupaciones sobre las comparaciones de códigos. Primero, Gueguen identifica un problema práctico de que para que las comparaciones de códigos permitan un argumento sólido de robustez, el conjunto de códigos utilizados debe abarcar el rango de posibilidades tanto como sea posible. En la práctica, casi nunca se logra un conjunto tan ideal. A veces, no todos los equipos de codificación están dispuestos a participar. Incluso si todos los equipos participaran, los códigos disponibles a menudo no constituyen un "conjunto ideal". Es decir, las simulaciones disponibles abarcan solo un pequeño rango de las posibles formas de simular un objetivo debido a limitaciones prácticas. Los códigos a menudo se basan unos en otros o utilizan los mismos supuestos simplificadores para mejorar la computabilidad. Debido a que estas suposiciones se comparten a través de los códigos, nunca se ponen a prueba por sí mismas (Gallagher & Smeenk, Referencia Gallagher, Smeenk, Boyd, Baerdemaeker, Heng y Matarese2023; Smeenk y Gallagher, Referencia Smeenk y Gallagher2020).
En segundo lugar, Gueguen (Referencia Gueguensin fecha) muestra que existe una tensión en principio que bloquea la formulación de argumentos de robustez fuertes basados en comparaciones de códigos. Gueguen identifica dos requisitos para un proyecto de comparación de código exitoso: comparabilidad y diversidad mínima. La comparabilidad requiere que las simulaciones tengan como objetivo modelar objetivos similares utilizando la misma física. La motivación de este requisito es bastante obvia: es necesario incluso permitir comparaciones entre códigos en primer lugar. La diversidad requiere que "los supuestos comunes utilizados en el conjunto no sean posibles generadores de artefactos" (19). La idea es que si hay acuerdo entre los códigos, se debe garantizar que el acuerdo no se deba a artefactos, sino que rastree un efecto físico real predicho por los modelos físicos subyacentes.
Revisando dos proyectos recientes de comparación de código, AGORA y AQUILA, Gueguen (Referencia Gueguensin fecha) muestra que los dos requisitos antes mencionados están en conflicto entre sí. Es decir, para hacer que diferentes códigos, códigos que implementan diferentes tipos de física de sub-cuadrícula con diferentes supuestos de modelado y parámetros numéricos, comparables entre sí, la diversidad mínima se viola de manera tan significativa que ya no se puede justificar ningún argumento de robustez. Por lo tanto, concluye Gueguen, si bien las comparaciones de códigos pueden ser útiles de varias maneras, estos proyectos actualmente no garantizan ninguna conclusión sobre la confiabilidad de los resultados de simulación que generaron los códigos.
Si bien mi discusión sobre las simulaciones por computadora puede sugerir pesimismo sobre la evaluación de la confiabilidad de las simulaciones, creo que esta sería la lección equivocada. Más bien, el trabajo filosófico discutido aquí muestra que hay un papel importante que los filósofos de la ciencia deben desempeñar cuando se trata de la práctica científica de vanguardia. Al analizar la epistemología de las diversas estrategias discutidas, los filósofos pueden, por un lado, mejorar su propia epistemología de las simulaciones por computadora y, por otro, ayudar a mejorar la metodología científica. Como ejemplo de esto último, Meskhidze (Referencia Meskhidze, Boyd, Baerdemaeker, Heng y Matarese2023) narra un proyecto de comparación de códigos en el que los filósofos participaron activamente en el proyecto. Consciente de las críticas de Gueguen, el grupo ajustó los objetivos y la metodología del proyecto de comparación de códigos. Por un lado, el alcance de su proyecto no era establecer la confiabilidad de sus resultados de simulación en general. En cambio, su objetivo era investigar si las diferencias en la implementación de la materia oscura que interactúa entre sí afectarían su resultado de simulación. Esta pregunta podría responderse con bastante certeza, revelando más detalles sobre el funcionamiento de las simulaciones específicas a lo largo del camino. Tomo el estudio de caso de Meskhidze como ejemplo de cómo los filósofos pueden contribuir fructíferamente a la investigación científica (ver también Godard Palluet y Gueguen Referencia Godard Palluet y Gueguen2024).
6.4 La ética de la cosmología y la astrofísica
Los filósofos no solo deben contribuir a los debates epistemológicos en cosmología y astrofísica. Otra tarea igualmente importante, si no más, es participar en debates éticos sobre estas disciplinas. Una visión ingenua puede sugerir que la cosmología y la astrofísica serían moralmente buenas o al menos neutrales (¿quién podría verse perjudicado por las observaciones de estrellas?). Esto está lejos de la verdad. La cosmología y la astrofísica no operan en el vacío. Son esfuerzos humanos practicados en un contexto sociopolítico, histórico y ambiental particular (de Swart, Thresher y Argüelles, Referencia de Swart, Thresher y Argüelles2024). Por ejemplo, el hecho de que estas disciplinas se estén volviendo cada vez más costosas desde el punto de vista computacional plantea preguntas sobre su impacto climático y cómo mitigarlo. La cosmología y la astrofísica (y la astronomía) también tienen una larga historia de enredos con el colonialismo y la opresión (Prescod-Weinstein, Referencia Prescod-Weinstein2021). La expedición del eclipse de 1919 que proporcionó evidencia clave para la relatividad general fue posible gracias a las potencias coloniales combinadas de Gran Bretaña y Portugal (Simões y Sousa, Referencia Simões y Sousa2019). E incluso el modelo recién aceptado del universo en expansión fue apropiado por algunos para defender el colonialismo de los colonos blancos en la década de 1930 (Schneider y De Baerdemaeker, Referencia Schneider y De Baerdemaeker2023).
Podría decirse que uno de los problemas más complejos es la ubicación de nuevos telescopios terrestres. En un episodio reciente de podcast, Thresher resume varios desafíos asociados con la ubicación de telescopios (Enander & Thresher, Referencia Enander y Thresher2024). La siguiente discusión se extrae en gran medida de ese episodio.Nota a pie de página35 Las condiciones óptimas de observación para los telescopios requieren ubicaciones remotas a gran altura. Eso generalmente implica cimas de montañas culturalmente significativas con ecosistemas delicados en países con una historia de colonización. Por lo tanto, la construcción de nuevos telescopios tiene un impacto ambiental, cultural, político y socioeconómico.
Con respecto al impacto ambiental, Thresher destaca que la construcción de telescopios comúnmente implica perturbar ecosistemas únicos. Por ejemplo, el monte Graham en Arizona, hogar de tres telescopios, también es el hogar de la ardilla roja del monte Graham en peligro de extinción (Swanner, Referencia Swanner2013).Nota a pie de página36 Además, la construcción de detectores y espejos ultralimpios a menudo genera grandes cantidades de residuos. El desmantelamiento es un ejercicio aún más delicado (el estudio de impacto ambiental para el desmantelamiento del telescopio de Arecibo en Puerto Rico (NSF, 2017) da un buen sentido). En el pasado, a menudo no había planes claros para desmantelar telescopios que habían llegado al final de su vida útil, dejando así enormes estructuras que se descomponían lentamente y destruían aún más el medio ambiente. El desmantelamiento responsable de los telescopios tiene un precio elevado. "Tratar el problema una vez que surge" claramente no es una opción cuando el costo es tan alto.
Culturalmente, Thresher señala que los telescopios a menudo se construyen en montañas que son culturalmente significativas para las comunidades locales e indígenas. Históricamente, estas comunidades no se han escuchado en la construcción de telescopios anteriores, lo que tiende a crear una profunda sensación de desconfianza hacia los nuevos proyectos de telescopios. Esto está estrechamente relacionado con el impacto político de la construcción de telescopios. Muchos sitios de telescopios se encuentran en regiones con una historia de colonización u opresión. Consideremos, por ejemplo, el caso de Chile, una de las principales ubicaciones para los telescopios terrestres. La Organización Espacial Europea (ESO) opera varios telescopios en el desierto de Atacama, incluido el Very Large Telescope y el futuro Extremely Large Telescope (no muy creativamente llamado). En la década de 1990, la construcción del Very Large Telescope se vio en peligro debido a disputas legales: se afirmó que el terreno en el que se iba a construir era un terreno privado que había sido donado injustamente en la década de 1970 a ESO por Pinochet, el ex dictador de Chile, cuyo régimen era conocido por sus violaciones de los derechos humanos (Long, Referencia Larga1994).
Finalmente, Thresher describe el impacto socioeconómico de los telescopios. Los telescopios modernos representan la vanguardia de la tecnología humana, pero rara vez son accesibles para las personas que viven cerca. En cambio, el uso de telescopios es un privilegio para los científicos internacionales, que pueden volar para una breve carrera de observación o incluso ejecutar sus observaciones de forma remota. Históricamente, a las comunidades locales solo se les ofrecen oportunidades de trabajo técnico o de limpieza menos prestigiosas. Mientras tanto, el crédito por los nuevos descubrimientos tiende a ir a los científicos investigadores, y mucho menos al personal técnico.
El caso del Telescopio de Treinta Metros (TMT) en el MaunakeaNota a pie de página37 pico en Hawái proporciona un ejemplo de cómo todos estos factores pueden llegar a un punto crítico. Maunakea es uno de los mejores lugares para la astronomía terrestre en el hemisferio norte, debido a su ubicación remota y atmósfera estable. Se ha desarrollado para la astronomía desde la segunda mitad del siglo XX, pero la montaña es sagrada para los nativos hawaianos.Nota a pie de página38 La construcción del TMT, que sería más grande que cualquier telescopio existente en la cima, ha sido continuamente rechazada, protestada y bloqueada por los nativos hawaianos. Si bien el conflicto a menudo se ha enmarcado inútilmente como uno de "ciencia versus religión", la verdad es mucho más matizada: se trata de una historia de colonización, impacto ambiental, falta de respeto por los derechos indígenas, preguntas sobre el consentimiento informado y la suposición de que el progreso científico puede llegar a toda costa. Maunakea es un excelente ejemplo de cuán intrincadamente vinculados están los telescopios al contexto en el que se construyen, y cómo ignorar ese contexto puede dañar significativamente tanto a las personas como a la ciencia. Thresher implora que tener en cuenta ese contexto y tomar decisiones moralmente informadas es crucial para el futuro de la cosmología y la astrofísica y para una ciencia justa.
Los esfuerzos recientes han demostrado que las cosas pueden mejorar. La colaboración de la próxima generación del Telescopio del Horizonte de Eventos (ngEHT) incluye un grupo de trabajo de ubicación responsable. Este grupo de trabajo tiene la tarea de desarrollar pautas sobre cómo ubicar un nuevo telescopio sin causar daños de ninguna de las formas antes mencionadas. Una de las preguntas centrales es comprender cómo puede ser el "consentimiento informado" cuando se trata de ubicar un nuevo telescopio, si es posible en un contexto histórico determinado. El grupo está formado por filósofos de la ciencia, especialistas en ética, sociólogos, antropólogos, astrónomos y más. Al reconocer que la ubicación responsable es clave para el futuro de la cosmología y la astrofísica, y al recurrir activamente a la experiencia de académicos de humanidades y científicos sociales, el ngEHT espera evitar los daños que a menudo se han hecho en nombre de la ciencia.
7 Conclusión
El progreso que la cosmología, la astrofísica y la astronomía han hecho durante el último siglo ha sido notable. Hasta mediados de la década de 1920, todavía se debatía si el universo se extendía más allá de la Vía Láctea, y la idea de un universo en expansión todavía parecía una locura matemática para muchos. El modelo de concordancia actual parece estar a años luz de distancia, especialmente dado el hecho de que incluye entidades como la materia oscura y la energía oscura, y la posibilidad de una fase de inflación cósmica. Sin embargo, esos ejemplos de física novedosa también plantean un desafío. Dado que nuestro principal punto de acceso a la inflación cósmica o la energía oscura es el universo a las escalas más grandes, ¿cuánto progreso empírico podemos esperar hacer en ellos? ¿Cómo pueden los científicos recopilar más datos empíricos sobre los agujeros negros o la materia oscura, entidades que son inhóspitas para la observación empírica a través del espectro electromagnético, que sigue siendo nuestra principal ventana al universo?
A pesar de estos desafíos, no creo que la lección principal de este Elemento sea el escepticismo sobre la investigación en cosmología, astrofísica y astronomía. Más bien, como han demostrado las diferentes secciones, la naturaleza de la investigación científica se ha adaptado con éxito a las circunstancias, a pesar de los muchos obstáculos en el camino. Continuamente se desarrollan nuevas sondas empíricas y teóricas, desde experimentos analógicos hasta simulaciones por computadora. Esto también significa que hay oportunidades únicas para los filósofos de la ciencia.
La filosofía de la ciencia puede aprender mucho sobre la epistemología y la metafísica de la ciencia en estos campos. El multiverso inflacionario y la materia oscura proporcionan casos de prueba interesantes para diferentes versiones del realismo científico. La distinción entre experimentos y observaciones, y entre observaciones directas e indirectas, puede ser mejor examinada (y quizás rechazada). Han surgido varias limitaciones en el papel del razonamiento de robustez. Y es posible que sea necesario reevaluar la epistemología de las ciencias históricas para dar cuenta de la práctica astrofísica y cosmológica.
De manera más general, la encuesta que he proporcionado muestra que la literatura filosófica sobre astrofísica (y en menor medida cosmología) se ha inclinado hacia el enfoque en casos de física "exótica", como los agujeros negros o la materia oscura.Nota a pie de página39 Se ha prestado mucha menos atención a la investigación científica sobre estrellas o galaxias "regulares". Puedo ver dos posibles explicaciones para este sesgo. En primer lugar, podría ser que estos casos exóticos generen los acertijos filosóficos más emocionantes, por ejemplo, relacionados con la "inobservabilidad" o la "subdeterminación". El sesgo en la literatura es entonces el resultado del hecho de que estas áreas de investigación son las más interesantes filosóficamente, mientras que comparativamente poco se puede deducir de la astrofísica más "ordinaria".
Sin embargo, dudo que este sea realmente el caso. En cambio, creo que la siguiente explicación es más plausible. Es decir, en esos contextos de investigación más "exóticos" como la investigación de la energía oscura o la investigación de los agujeros negros, los desafíos que enfrentan la cosmología y la astrofísica en general (por ejemplo, la falta de intervención, nuestro punto de vista único) se vuelven evidentes, a menudo porque se combinan con desafíos adicionales (por ejemplo, la falta de señales electromagnéticas). Esto hace que los desafíos generales que enfrentan la cosmología y la astrofísica sean aún más mordaces. Pero esto también significa que si se puede argumentar que el progreso científico es posible incluso en las circunstancias más difíciles, como he tratado de hacer en este Elemento, la epistemología de la cosmología y la astrofísica se fortalece de manera más general. Aún así, si bien esta podría ser una buena tendencia inicial, también creo que la literatura filosófica sobre cosmología y astrofísica está incompleta mientras se mantenga este sesgo.
Finalmente, los cosmólogos, astrofísicos y astrónomos a menudo están lidiando con preguntas sobre las que los filósofos pueden brindar orientación. Un tema recurrente es el problema de la demarcación y hasta qué punto la falsabilidad puede ser un criterio útil para la ciencia. Si la subdeterminación es perniciosa o no, así como los diferentes tipos de subdeterminación que ocurren, se ha discutido ampliamente en la literatura filosófica. Y, finalmente, la cosmología y la astrofísica solo recientemente han comenzado a reconocer los aspectos éticos de su investigación. Aquí, la reflexión filosófica puede ser primordial para mejorar la práctica científica.
Por lo tanto, a lo largo de este Elemento, he identificado áreas de polinización cruzada entre la práctica científica y la filosofía. En algunas áreas, esto ya ha dado lugar a colaboraciones fructíferas. Seguro que vendrán más.