CAPITULO 8.- Compendio de teorías


 

COMPENDIO DE TEORIAS

Principio de incertidumbre

Teoría de campos

Teoría de la Superfuerza o fuerza unificada

Teoría del caos

Teoría Cuántica

 

 

COMPENDIO DE TEORÍAS

 

 

Principio de incertidumbre

El uso del álgebra matricial para presentar un modelo matemático del átomo, de sus electrones y sus órbitas (niveles de energía en realidad), surgió paralelamente al desarrollo de la mecánica ondulatoria de Erwin Schrödinger, para el que las partículas son ondas, de modo que, igual que ocurre con los fotones, la materia tenía el carácter de onda y de partícula (como expresó De Broglie en 1924). Pero Schrödinger no dejó claro el concepto de onda. Werner Heisenberg no quería entrar en una descripción del átomo basada en ondas y partículas y el desarrollo matricial le permitía estudiar lo intocable con una herramienta abstracta. Sin embargo, ambas teorías, la mecánica ondulatoria de Schrödinger y la mecánica cuántica de Heisenberg, son equivalentes matemáticamente. El problema más importante con el que se enfrentó Heisenberg en su teoría consistía en cómo describir la posición de una partícula, pues el producto de la posición de la partícula por su velocidad no era el mismo que si alteraba el orden de los factores. Y encontró que el acto de medir la posición de una partícula alteraba dicha posición. La función de onda de la partícula se colapsa seleccionando un resultado: si hacemos pasar fotones por la doble ranura, detrás aparecen las típicas franjas luminosas de las ondas, pero si en las ranuras colocamos detectores de centelleo, se detectan centelleos típicos de las partículas. El experimento altera el resultado. La realidad no se puede determinar o definir a niveles cuánticos, pese a que la materia a nuestros ojos está bien definida en el marco tridimensional. Ello es así por que a nivel cuántico se requieren más de tres dimensiones para empezar a determinar sus efectos, y Heisenberg abrió el camino correcto usando el cálculo matricial, que puede utilizar múltiples dimensiones.

Max Born intentó demostrar, en 1926, que la onda de Schrödinger se podía interpretar como una onda de probabilidad, concepto totalmente diferente del de las ondas luminosas. Según esta interpretación, para encontrar una partícula habría que buscarla donde hubiera más probabilidad de encontrarla, donde la amplitud de la función de onda es mayor. Por ello los electrones no tienen órbitas en la teoría de la mecánica cuántica, sino que relampaguean en una nube electrónica de probabilidades alrededor del átomo, de modo difuso, nubes llamadas estados cuánticos. Por ello el electrón no salta de una órbita a otra, sino que pasa de un estado cuántico a otro que posee otras características diferentes del estado original. Cuando un electrón pasa de un estado cuántico a otro de menor energía, para liberarse del exceso de energía necesario para realizar el paso, irradia un fotón. Pero la teoría no calcula cuando se producirá dicho salto, sino que calcula la probabilidad de que se realice el salto y, con ello, el momento de mayor probabilidad. De este modo, el electrón está en un infinito número de estados cuánticos simultáneamente, lo que lo hace poco previsible, pero si tomamos una gran cantidad de electrones y promediamos sus probabilidades, las predicciones (por la teoría de los grandes números) se hacen muy exactas.

Pero es necesario saber qué quiere decir eso de que la función de onda de una partícula se colapsa. Para ello debemos acudir al tan nombrado experimento ficticio de "el gato dentro del dispositivo de Schrödinger". El experimento uso un dispositivo en forma de baúl, dentro del cual se coloca un contador Geiger junto a una porción de material radiactivo, con tan poca materia que la probabilidad de desintegración de un átomo de la misma es del 50%, dejando el otro 50% a la probabilidad de que no se desintegre el átomo. El contador Geiger es tan sensible que detectará incluso una sola desintegración atómica del material radiactivo a su lado. Además, el contador dispone de un martillo que, en caso de ser detectada una desintegración, caerá sobre una ampolla con gas venenoso, que se encuentra junto a un gato que duerme plácidamente inconsciente de la trampa en la que dormita. Por fortuna es un experimento mental. En resumen, si se detecta una sola desintegración, el gato estará muerto cuando abramos el baúl. Bien, según la mecánica cuántica, mientras no se abra el baúl el gato no está ni vivo ni muerto, sino que su función de onda le permite todas las probabilidades a la vez. Pero al abrir el baúl, la función de onda del gato se colapsa, o sea, elige una de entre las múltiples probabilidades, como si la consciencia del observador fuera la causante del colapso de la onda. Si aplicamos la teoría del multiverso, diremos que el observador en realidad lo que hace es elegir un universo entre muchos, colocar su conciencia en una dimensión entre muchas, y en dicho universo o dimensión el gato está vivo, o está muerto. En cualquiera de los otros universos el gato estaría en una de las dos circunstancias finales, incluso habría universos donde el gato no estaría en el baúl, o bien no habría experimento.

Hablamos del principio de incertidumbre y su función de onda probabilística, del cual se extrae la conclusión de que la precisión con que se puede medir el momento y la posición, simultáneamente, de una partícula, tiene un límite: en el espacio de fases, la posición de un punto no se puede definir con menos error que el impuesto por la constante de Planck, de valor h. Si denominamos x a la posición y p al momento (cantidad de movimiento m·v, masa por velocidad) de una partícula, la incertidumbre determinada por la teoría de Heisenberg se calcula así:

DDp = h/2·p

h = 6'62·10-34 J·s

Dx = error en determinación de la posición

Dp = error en la determinación del momento

y la energía E que se transfiere de una partícula a otra, empleando un tiempo t en ello:

D

Dt = h/2·p

Experimentalmente se ha demostrado que, en intervalos de tiempo infinitesimales, las indeterminaciones respecto de la energía pueden ser muy grandes, debido a las fluctuaciones de la energía del vacío, de modo que surgen pares partícula-antipartícula, pares virtuales por su corto tiempo de vida y que son capaces de provocar efectos físicos mensurables. Este efecto se utiliza hoy en día para explicar la existencia de energía en el mal denominado "vacío cósmico".

David Bohm, dedicado a la física pero con una visión ciertamente filosófica, fue lo suficientemente atrevido como para iniciar la aventura de estudiar los niveles subcuánticos, es decir, más allá de lo experimentalmente posible. Y ello le llevó a lanzar la hipótesis (luego experimentada por Aspect, lo trataremos en Teoría Cuántica) de que en ese subnivel existen "variables ocultas" de carácter no local, es decir, que no se transmiten por contigüidad, en contra de lo propuesto por Einstein-Podolsky-Rosen de la imposibilidad de la transmisión instantánea a distancia. Para Bohm, existe un orden vibratorio implícito, de carácter no local, más allá de las leyes del espacio-tiempo, en lo que se ha dado en llamar, la Metafísica del Cosmos, y que después del experimento de Aspect no puede ser puesta en tela de juicio. La REALIDAD está más allá de la ambiciosa carrera científica, e inalcanzable por ahora debido al punto de vista estricto, aunque necesario, de la raza científica.

Teoría de campos

Cuando un científico habla de campo es difícil comprender el concepto al que se refiere. Para simplificarlo, se puede resumir diciendo que se llama campo al conjunto de fuerzas homogéneas que actúan, sin contacto físico, por medio de líneas de fuerza. Además, las líneas de fuerza pueden ser definidas por medio de una cantidad física que puede tomar diferentes valores en diferentes puntos de su expresión. Por ejemplo, la temperatura es una variable física cuya expresión se puede estudiar como un campo, y su expresión matemática es una función dependiente del espacio, representándose como T(x,y,z), es decir, función T (temperatura) variable dependiente de coordenadas espaciales (x, y, z). La resolución de esta función en un punto determinado nos dará como resultado un número que será la temperatura en ese punto del espacio definido por tres coordenadas. Los campos son escalares cuando, como ocurre con la temperatura, la resolución de su función matemática resulta un número que se puede encontrar en una escala numérica, como la del termómetro de columna de mercurio. La temperatura no interacciona en una dirección determinada, sino en busca del estado estable de mínima energía. Un campo es vectorial cuando el valor en cada punto del campo, además de ser numérico tiene una dirección de expresión asociada, debido a que se encuentra en movimiento su magnitud. Por ejemplo, el caudal de un líquido en un circuito de transporte se expresa mediante la función de un campo vectorial. A diferencia de los campos escalares, los campos vectoriales incluyen en su función la variable tiempo, por lo que su expresión es del tipo Q(x, y, z, t). Los campos vectoriales resultan un tanto abstractos, de modo que para representarlos gráficamente suele dibujarse una serie de flechas con longitud y dirección en cada punto del campo. La longitud indica el valor escalar en ese punto en el tiempo t y la flecha indica la dirección en la que se expresa. En la figura adjunta podemos ver representado el campo eléctrico de este modo. Sobre el eje de tiempos (color oscuro) se desarrolla la función sinusoidal que define el campo eléctrico vectorial medido en punto, y los vectores perpendiculares al tiempo indican (con su longitud) el valor escalar en ese punto en el tiempo t, y la dirección hacia donde se manifiestan los efectos del campo. Esto no quiere decir que exista algo que va serpenteando sobre el tiempo o el espacio, sino que el valor mensurable de su energía o fuerza sufre variaciones oscilantes repetitivas cuando se apunta con el aparato de medida en un punto. Se podía decir que sería análogo a mirar a un faro en la noche, de modo que estando este situado en un punto fijo le veríamos alternar entre momentos de mucha luminosidad, para ir decreciendo hasta alcanzar la oscuridad, para volver al máximo luminoso de nuevo, con la misma frecuencia. Cada instantánea que hiciéramos del faro representaría una de las flechas del gráfico, y tendríamos instantáneas con toda la variedad de luminosidades que el faro es capaz de dar. Así pues, las partículas en realidad no son ondulantes, es su energía la que ondula. El problema está en que ondas y partículas son lo mismo en determinadas circunstancias, y esto es tan abstracto que apenas se puede imaginar (ver Teoría Cuántica).

Al margen de la definición científica, si recordamos la ley de octavas, asociaremos la figura sinusoidal que tenemos arriba con el desarrollo de la octava y sus intervalos, donde se producen cambios de dirección al pasar de un intervalo a otro, produciendo en este caso desviaciones en el desarrollo de todos los intervalos de la función, resultando una expresión de modo sinusoidal. Se puede resumir diciendo que la función sinusoidal del campo eléctrico está sometida a la ley de octavas y que tiene tal forma por las desviaciones de dirección entre intervalos. Aún más, tal función de onda no existe como tal hasta que se colapsa, generando las partículas. Es como un derrape de la función de onda al perder impulso.

Para la física cuántica, las partículas (y todos los objetos materiales) son los efectos de la manifestación de los campos en donde cantidades definidas de energía o cuantos son frenados para materializarse, en nubes probabilísticas, en las que para cada tipo de partícula existe un campo generador. El campo de la materia del universo conocido se describe mediante las funciones de onda de los pares electrón-positrón, mientras que el fotón es el cuanto del campo electromagnético y el electrón el cuanto del campo eléctrico. De este modo no existe en el universo más que campos cuánticos. Además, los electrones no se crean o se destruyen salvo en la interacción materia-antimateria, propia de las fluctuaciones cuánticas del vacío, mientras que los fotones se pueden crear o destruir, o más bien expulsar y absorber realizando un intercambio de fuerzas allí donde interaccionan, por lo que se diferencian así los conceptos de partículas y fuerzas.

Dos partículas que interaccionan intercambian fuerzas que se expresan en términos de campo. Por ejemplo, dos electrones que se acercan entre sí sufren una fuerza de repulsión debida al intercambio de fotones entre ellos: cada electrón aumenta su campo eléctrico al aproximarse entre ellos y llega un instante en que dicho campo es tan elevado, que hace disparar a un fotón energético hacia el otro electrón desviándolo, tras lo que desaparece el fotón bala, probablemente reabsorbido por el electrón receptor u otro cercano. El electrón disparador sufre un retroceso en el instante del disparo, o bien sufre el impacto de un fotón del otro electrón, y todo ello aparenta que ambos electrones se han repelido. Explicando con más detalle como es el campo electromagnético en el electrón se entenderá este efecto. La atracción entre partículas se produce del mismo modo, sólo que el fotón disparado no choca contra la partícula receptora, sino que la rodea regresando por el otro lado, con una trayectoria que dibuja el símbolo

: , circundando a ambas partículas a modo de abrazo haciendo que se acerquen entre sí.

El campo electromagnético generado por el electrón produce, a su vez, a fotones virtuales de corta vida. Deducida del principio de incertidumbre, la regla es que un fotón virtual sale disparado desde su electrón, alcanza una distancia igual a la mitad de su longitud de onda (del fotón) y regresa de nuevo al electrón para ser reabsorbido. A menor longitud de onda, mayor energía, lo que implica que los fotones de menor energía se separan más del electrón. Con esta teoría queda una imagen del electrón como una nube de fotones virtuales en cuyo interior se encuentran los más energéticos. Esta es base de la Teoría de la Electrodinámica Cuántica (QED), con la imagen de un vacío en ebullición por la efervescencia de los fotones, y se usa para describir la interacción entre partículas. Así explica que los fotones se pueden convertir en pares electrón-positrón tomando energía del campo según el principio de incertidumbre, antes de ser reabsorbidos por los electrones. Bajo la perspectiva de la teoría cuántica, la energía del electrón más la de la nube de fotones virtuales que le acompaña, es infinita por lo que se desprende que la masa de los electrones es infinita (ver Electrones). Esto, desde luego, no es lo que se puede medir en cualquier experimento atómico. Existe un recurso matemático para hacer que el electrón (o cualquier otra entidad física) se independice de sus magnitudes infinitas y quede enmarcado dentro de la realidad mensurable. Se trata de la renormalización, una técnica inventada por Richard Feynman y Julian Schwinger (por separado y al mismo tiempo, en 1948), cuyo objetivo es eliminar los términos infinitos de determinados cálculos matemáticos, para obtener resultados mensurables, finitos. Con esta técnica, la QED se ha convertido en una herramienta capaz de predecir resultados de experimentos con un error inferior a 10-9, lo que ha permitido además explicar la naturaleza de las fuerzas eléctrica y magnética, así como la interacción de la luz con la materia. El resumen de estos descubrimientos se fundamenta en que todas las partículas con carga interaccionan entre ellas intercambiando fotones, produciendo fuerzas de atracción o repulsión, y los fotones se encuentran formando una nube probabilística alrededor de la partícula con carga, nube con una masa infinita negativa, que contrarresta la masa infinita del electrón, resultando una masa medible, la masa característica de dicha partícula con carga.

El campo electromagnético contiene todas las radiaciones de índole electromagnética del cosmos. Está compuesto por líneas de fuerza eléctricas que a su vez producen líneas de fuerza magnéticas. Así, el campo electromagnético es el resultado de un campo eléctrico que, al ser variable, genera un campo magnético asociado y perpendicular a las fuerzas eléctricas que lo originan, y este, a su vez, origina un campo eléctrico que se superpone al original, y así en un círculo cerrado de acción y reacción. Si tomamos una representación de una onda cualquiera del campo eléctrico (ver figura anexa) veremos que esta produce una onda perpendicular y perteneciente al campo magnético, que avanza en la misma dirección y con la misma frecuencia, siendo su amplitud proporcional. De hecho, el cosmos es una manifestación del campo electromagnético indiferenciado, que se expande en todas las direcciones sin que la materia sea un obstáculo para sus líneas de fuerza. La luz es una onda electromagnética, dentro del campo en el cosmos, y por encima y por debajo de ella existe un amplio abanico de frecuencias, pero todas avanzan a la velocidad de la luz en el vacío, y en línea recta cuando no se ve afectada por otros campos capaces de interferirlas (como el gravitatorio).

 

 

Teoría de la Superfuerza o Fuerza Unificada

Actualmente existen identificadas cuatro fuerzas fundamentales de la naturaleza del cosmos, que ordenadas por orden decreciente de magnitud son:

    • fuerza nuclear fuerte

      : necesaria para unir los quarks que forman a cada partícula

    • fuerza electromagnética

      : provoca la atracción o repulsión entre partículas, así como la unión entre átomos y moléculas

    • fuerza nuclear débil

      : responsable de mantener unidos los núcleos atómicos, y causa de la radiactividad

    • fuerza gravitatoria

      : mantiene el orden que conocemos en los planetas, las galaxias y los cuerpos del cosmos

y en todas se produce la interacción por medio de intercambio de partículas: gluones, fotones, piones y los no detectados "gravitones", respectivamente.

Los científicos están cada vez más convencidos de que se debe investigar una única Teoría del Todo que sea capaz de explicar y determinar todos y cada uno de los fenómenos y fuerzas que se desenvuelven en el universo. De hecho, la teoría del campo electromagnético y la teoría del campo gravitacional comparten cualidades: dependen, en la misma proporción, de la distancia en que se ejercen, y ambas poseen alcance infinito (ni el fotón ni el "gravitón" poseen masa). Pero hasta la fecha hay un estancamiento en estos estudios debido a que dos teorías, basadas en fundamentos muy distintos, han quedado como finalistas, pero son incapaces de explicar por separado el Todo:

    • la teoría cuántica: describe las fuerzas electromagnética, nuclear fuerte y nuclear débil; aplicable al microcosmos, al mundo de las partículas

    • la teoría de la relatividad general: describe la fuerza de la gravedad, que es la menos fuerte de todas; aplicable al mundo planetario y galáctico, capaz de describir las fuerzas como distorsiones del espacio-tiempo, por que es una distorsión en los alrededores de la materia lo que atrapa a los objetos en su caída o equilibrio gravitatorio. Es una fuerza tan débil que, si no fuera por que las fuerzas eléctricas tienen sus cargas contrarrestadas en casi todo el cosmos, estas dominarían el universo

Cada una por separado es capaz de explicar los fenómenos que abarca, con una precisión sin precedentes, pero no más allá de sus límites. Se cree que en el Big Bang o dentro de los agujeros negros, singularidades muy extremas, es donde ambas teorías sufren la separación que caracteriza al resto de elementos del universo. En singularidades de muy elevadas energías y temperaturas (más de 1038 grados Kelvin), como estas citadas, la teoría de la gravedad no es aplicable, pues la curvatura del espacio-tiempo es infinita, y se utiliza la teoría cuántica, pero esta no resulta aplicable más allá del alcance de los cuantos (paquetes de energía) con masa.

En 1919, Theodor Kaluza escribió las ecuaciones de Einstein (las que explicaban la fuerza de la gravedad en función del espacio-tiempo de cuatro dimensiones) planteadas en cinco dimensiones, y en esta versión extendida quedaba incluida la gravedad junto con las ecuaciones del electromagnetismo de Maxwell. En 1926, Klein replanteó la ecuación de Schrödinger (comportamiento cuántico de una partícula) también con cinco dimensiones o variables, cuyas soluciones se podían representar como funciones de ondas-partículas en movimiento bajo la influencia de los campos electromagnético y gravitatorio. Era la versión cuántica de la ecuación de Kaluza. De ella se deduce que una onda electromagnética (un fotón), es vibración de cinco dimensiones, y que al aumentar el número de campos interactuantes, aumenta el número de dimensiones necesarias para explicar la resultante. Una versión simple de la teoría de Kaluza-Klein necesita once dimensiones: las cuatro variables del espacio-tiempo y siete adicionales para las demás fuerzas. En esta primera interpretación, cada punto del espacio-tiempo posee una circunferencia de 10-32 cm de diámetro que se extiende a lo largo de una dimensión no espacial, pero en estudios posteriores tal circunferencia se ha interpretado como una heptaesfera (análogo de una esfera pero en siete dimensiones). Las dimensiones extras no pueden percibirse, pues son fruto de una abstracción matemática, en la que el concepto de la heptaesfera es necesario para comprender la complejidad del cosmos. De este modo, el universo que conocemos surgió de un estado multidimensional de causas indiferenciadas, y al radiar en todas direcciones, algunas de dichas dimensiones se plegaron sobre sí mismas y otras se expandieron, dando lugar a el tiempo, las fuerzas, las energías y, por tanto, la materia con sus formas y geometrías. En el instante de la creación, la burbuja multidimensional o huevo creador se escindió en burbujas de siete dimensiones y de cuatro dimensiones: las hexadimensionales se colapsaron, expandiéndose las tetradimensionales mediante el Big Bang.

La teoría de cuerdas no trata a las partículas como entes puntuales, sino como cuerdas o bucles vibrantes, con un tamaño de 10-33 cm, de una sola dimensión desplazándose en un espacio-tiempo multidimensional, de manera que su movimiento obliga a curvarse al espacio-tiempo a su paso, como predicen las ecuaciones de Einstein. Estas cuerdas vibran como las de un violín (ver ley de octavas), con frecuencias o notas determinadas. Cada vibración equivale o define a una partícula subatómica determinada de entre todas las posibles, lo que explicaría por qué es inagotable el número de partículas diferentes que se descubren. Se refuerza la imagen pitagórica de un universo explicable mediante las leyes de la armonía, puesto que así explicada, la propia ley física del universo, basada en cuerdas, consiste en notas armoniosas. Por el contrario, las millones de soluciones posibles a las ecuaciones de esta teoría de cuerdas no se han podido aplicar a los quarks y partículas de nuestro universo. No obstante, la teoría incluye un nuevo tipo de simetría llamado dualidad, que abre las puertas a nuevas e interesantes soluciones de los planteamientos: las soluciones llamadas "no perturbadoras". Si se reducen las dimensiones en juego a un número de ocho o de siete, surgen conjuntos de universos posibles que se pueden asemejar al que conocemos. Se trata ahora de seguir disminuyendo el número de dimensiones en estas soluciones hasta encontrar resultados para cuatro dimensiones que además expliquen nuestro mundo físico.

La física cuántica trata de explicar lo infinitesimal. La cosmología trata de explicar lo infinito. En el instante de la creación el universo debía ser considerado como infinitesimal, una singularidad, y por tanto, sometido a los criterios de la física cuántica. Es lo que se denomina la cosmología cuántica, basada en la idea de que deberíamos tratar al universo como tratamos a una partícula: determinada por la incertidumbre del principio de Heisenberg que permite que, hasta que se colapse, exista en varios estados o dimensiones simultáneamente (ver Multiverso).

En la inicial expansión energética del universo se produjo la semilla de todas y cada una de las partículas que existen, mediante la producción de pares quarks-antiquarks, de los cuales surgen todas las demás partículas que dan lugar a la materia-antimateria. Lo que resulta difícil de explicar es el por qué del predominio de la materia ante la antimateria, pues la aparición de partículas siempre es en pares. La lógica dice que todos los pares quarks-antiquarks deberían aniquilarse tras el frenado de la creación y su posterior enfriamiento, quedando vacío todo el espacio. Sin embargo nuestro universo está fabricado de materia. Y surgen pares quarks-antiquarks en la fluctuaciones cuánticas a cada instante (ver Principio de Incertidumbre y Conceptos Cuánticos). Como resultado de la experimentación con partículas virtuales se observó que, tras desintegrarse estas para formar electrones y neutrinos (ver en Átomos, la desintegración

b), se producían violaciones ocasionales de la conservación de la paridad (P). Esta regla de las partículas es una más de las doce reglas como esta que cumplen las partículas de nuestra física atómica, y que forman parte de las leyes de conservación. Estas se cumplen, por ahora, para las interacciones fuertes, pero no en las interacciones débiles. La paridad implica que si dos partículas, una par y otra impar, interaccionan con otras dos partículas para dar lugar a dos nuevas partículas, estas últimas deberán ser una par y la otra impar, conservando así la paridad inicial. La paridad es la denominación de una propiedad matemática relacionada con las ondas características de las partículas y su posición en el espacio, de modo que divide a estas en pares e impares, según la propiedad se caracterice. Con esta propiedad ocurre lo mismo que con los números pares o impares: si se suman dos números pares se obtiene siempre otro número par, pero un número par puede resultar también de la suma de dos impares, pero un número par nunca será resultado de la suma de un número par y otro impar. Pues resulta que esto se pensaba que era una regla inviolable para las partículas. Pero ocurre que en observaciones de partículas que emiten electrones tras una interacción débil, en lugar de emitir en todas direcciones, se observa que existe una dirección predominante, lo que es una asimetría no esperada de la ley de conservación de paridad. También se ha demostrado que la ley de conjugación de carga (C), que tiene que ver con la desintegración de partículas en antipartículas, no es una ley infalible y que puede ser incumplida bien individualmente, bien conjuntamente con la paridad. La conservación CP no se verifica como regla en interacciones débiles. El único modo de obtener resultados idénticos en interacciones de partículas que cumplan las reglas CP y en las que no las cumplan es violando además la ley de conservación temporal (T), resultando un incumplimiento en CP y T. De este modo se crean partículas de modo simétrico: las que cumplen CPT y las que incumplen C y/o P y T. Por ello la regla CPT sí es inviolable, pero alguno de sus componentes pueden ser incumplidos. Si las leyes de conservación fueran simétricas existirían tantas partículas de materia como de antimateria, pero existe una preferencia asimétrica hacia aquellas leyes que definen la creación de materia, ¿por qué tal preferencia? Para que se produzca un exceso de materia sobre la antimateria es necesario que:
    • se generen interacciones de las que surjan protones y neutrones a partir de otras partículas,

    • tales interacciones deben violar la regla C y/o CP

    • debe existir un flujo de tiempo definido, de modo que incumpliéndose C y/o P y T, el resultado de la interacción sea idéntico al de las interacciones que cumplen CP y T. Esto determina una flecha del tiempo en el universo.

Es necesaria tal flecha del tiempo para que los procesos de conversión de radiación en partículas, a altísimas temperaturas y marcados por el equilibrio inicial, no se produzcan con la misma facilidad en cualquier modo de transformación, siendo un descenso térmico o una evolución de un estado caliente a otro más frío, como explica la ley termodinámica de la entropía, la que produce la dirección de la flecha del tiempo, o al revés, la flecha del tiempo proporciona una evolución entrópica al universo que conocemos. A partir del tiempo cero, instante en que se produce la gran expansión radiante, entre 10-38 s y 10-35 s después de t = 0, el número de pares partícula-antipartícula creados no igualaba a la velocidad con que las mismas se desintegraban, pues se estaba enfriando el conjunto. Los procesos de desintegración que violaban las leyes C y/o P y T no se producen a la misma velocidad, y quedan quarks y antiquarks que nunca se encuentran, y no se desintegran, quedando quarks libres para formar la materia del universo. El siguiente esquema muestra una idea de la aparición de tal asimetría conforme el tiempo cobraba vida:

 

Teoría del Caos

Hace más de cuatro mil años que dentro de la civilización griega existía la creencia de que la Luz nació del Caos, nombre que se le daba al vacío anterior a la Creación, cuando el Orden de la leyes físicas que gobiernan nuestro universo todavía no existía. Por medio de la intervención de los dioses y su esfuerzo (mediante su pensamiento), del Caos surge el Orden para dar lugar a la Luz y el Cosmos, como también reza el libro del Génesis. De este modo, el Orden estaba implícito en el Caos, puesto que aquel es una variante de este, lo que da una capacidad y un valor infinito al Caos, por contener nuestra realidad y muchas otras más (incalculables opciones diferentes y tan reales como nuestra realidad).

La humanidad trata de imitar a los dioses, fabricando su propio orden desde el aparente caos que la Naturaleza presenta en determinados aspectos. Pero el ser humano recibe una percepción muy subjetiva de lo que es el Orden y en muchas ocasiones ha surgido el caos cuando se pretendía lo contrario. Por ello, no es probable que el ser humano sea capaz de extraer del Caos, conscientemente, un orden de tipo cósmico, ni aún planetario, pues los designios del planeta, de la vida orgánica y de la materia se escapan a la previsión que podamos hacer a medio y largo plazo. Para ello, la humanidad necesita alcanzar el conocimiento total, cosa posible como veremos al estudiar la Teoría del punto Omega.

Por lo dicho, del Caos surge el Orden y la humanidad aspira a dominar los efectos del Caos y competir con el Orden, pero actualmente no dispone de los conocimientos para saber cómo hacerlo, ni qué hacer para obtener el orden adecuado para no interferir negativamente en el Orden Cósmico. Pero esto es filosofar.

La teoría del caos no habla de mitos griegos, ni de la ambición del ser humano por dominar la Naturaleza. La teoría del caos ataca sin contemplaciones a la soberbia científica que cree que el ser humano es dueño de la Física del Cosmos. Habla de lo limitada que es la física clásica en sus predicciones, partiendo del hecho comprobado de que casi todos los sistemas clásicos son intrínsecamente inestables. Pero no se trata de una inestabilidad en el sentido de perder el rumbo en su evolución, o de fragilidad en su comportamiento, sino que los sistemas clásicos son muy influenciables por las condiciones iniciales existentes cuando los sistemas surgen. Una pequeña variación en los parámetros del origen, altera en gran modo el estado final del sistema, ya sea un estado final estable o inestable. Excepción probada de esto son los movimientos de los planetas, sistemas clásicos atípicos por su gran estabilidad a largo plazo. Para alcanzar a predecir la evolución de un sistema clásico en cualquiera de sus posibles estados, es imprescindible disponer de todos los parámetros que condicionan sus estado inicial, en el punto singular en el que surge el nuevo sistema. Y esta información es imposible de conseguir en la mayoría de los casos.

El caos es una manera de denominar la inestabilidad en los movimientos de los que se compone un sistema bajo el punto de vista clásico. La suposición de un estado inicial u otro implica desviaciones impresionantes entre los resultados causados en uno u otro supuesto. La imposibilidad de predecir el curso de los acontecimientos, de los efectos, de la trayectoria, de la evolución de un sistema, eso es el caos. Pero como ya sabemos, la realidad de nuestro cosmos no obedece al pie de la letra a la física clásica, sino que obedece bastante fielmente (por lo experimentado hasta ahora), a las leyes probabilísticas de la física cuántica. Esto se debe a que donde falla la predecibilidad de la física clásica, la indeterminación que se produce en el proceso es tenida en cuenta por la física cuántica, obteniendo con esta una predicción que contempla múltiples resultados (tantos más cuanto menos parámetros iniciales se manejan). Por ejemplo, las partículas con carga eléctrica no pueden formar ninguna configuración estable según el punto de vista clásico del movimiento, debido a que las partículas con cargas opuestas colisionarían entre sí y ninguna materia llegaría a generarse, quedando todo en un cúmulo energético. Es la interferencia cuántica entre universos paralelos la que explica que las trayectorias trazadas por dichas partículas hagan posible que nuestro universo sea material. Esto ocurre por que se considera que nuestro universo es un sistema cuántico finito que no depende del tiempo, por lo que, observado en su totalidad, se producen todos los posibles estados en el tiempo infinito, de modo que entre estados diferentes puede ser que sólo cambie un fotón. Esto significa que hay infinita cantidad de universos paralelos finitos (paralelos porque no se contempla el tiempo y finitos por que tienen límites espaciales), definiendo un multiverso, y con diferencias entre ellos ínfimas, o también enormes. Y entre los universos con diferencias ínfimas se producen interferencias cuánticas que marcan la tendencia probabilística del conjunto (ver teoría del Punto Omega).

Teoría Cuántica

Ver también Conceptos Cuánticos en el capítulo Tiempo y Espacio.

Se emplea para definir la estructura del átomo y el modo en que estos se combinan para formar elementos más complejos. Cómo interaccionen aquellos es decisivo para configurar las propiedades de la materia, excepto las propiedades derivadas del campo gravitatorio, que queda inexplicado por esta teoría.

Está basada en los cuantos o quantum, es decir, unidades de materia tan pequeñas que al estudiarlas se observa que en realidad están en el umbral entre la materia y la energía, como vibrando en un flujo discontinuo de energía, como si al aparecer un quantum a la realidad material necesitara que la maquinaria que lo ha generado funcionara a impulsos, como si necesitara reponerse antes de lanzar a la materialidad un nuevo quantum. Cada quantum no es material pero posee masa, inercia y sucumbe a la gravedad: son ondas y corpúsculos a la vez. Además presentan una característica incierta: al tratar de medir alguna de sus propiedades, el resto de ellas quedan fuera de la posibilidad de ser medidas. Si queremos averiguar su posición, no podemos determinar su velocidad, y viceversa, como hemos visto en el Principio de incertidumbre. Por si fuera poco, los quantum que han estado juntos formando un conjunto mayor, comparten factores no locales que les hace parecer enlazados entre ellos incluso separándoles a grandes distancias, de modo que cuando un quantum, de los dos que formaban el conjunto experimental, se sitúa en un estado determinado, el otro se sitúa en un estado complementario (más adelante veremos este misterio cuántico llamado Entrelazamiento). Las entidades fundamentales de la realidad física, los cuantos, no tienen un estado determinado, sino que se encuentran en un estado de indeterminación o de superposición de muchos estados simultáneamente. Hasta que un instrumento no registra o mide el estado cuántico de un cuanto, no se puede decir en que estado se encuentra, pues en el momento de la medición el cuanto se determina, su función de onda se colapsa hacia un estado normal determinado. Además, la teoría cuántica postula que la materia se puede comprender como partículas o como ondas. Los electrones poco energéticos se comportan idénticamente a como se comporta una onda física. Sin embargo, los electrones muy energéticos se comportan como partículas puntuales. Esta dualidad en el comportamiento permite que las partículas puedan encontrar obstáculos en su camino capaces de desviarlas, mientras que las ondas saltan dichos obstáculos, eludiéndolos.

La física cuántica es de difícil comprensión, pero cuando se obtiene de ella alguna hipótesis, se adentra tanto en el mundo de la ficción que se ha de ser muy cuidadoso antes de sacarla a la luz. En 1955 Hugh Everett tal vez no fue muy cauto, al revelar su versión de los "universos paralelos", obtenida a partir del descubrimiento en el que se constató que cualquier partícula se encuentra en un incierto estado de múltiples probabilidades resultado de la superposición de todos sus estados posibles (estado llamado función de onda de Schrödinger, que posee una definición matemática), y no sale de esa incertidumbre hasta que se la mide, se la observa o se la hace interactuar con nuestra realidad. Louis de Broglie y Erwin Schrödinger establecieron claramente y definitivamente que todo aquello que se materializa lo hace con naturaleza ondulatoria:

Dy

0 = (8 · p2 · m / h2) · (E – V) · y0
, ecuación de Schrödinger (ver explicación en Partículas: Fotones) que define el estado de superposición de todos los posibles estados de la partícula. ¿Cuál será el estado probable de esta? Imposible de determinar, pues no parece que unas condiciones particulares provoquen un estado determinado. Cuando la función de onda se resuelve, es decir, cuando la función matemática se convierte en materia, se dice que la función de onda se ha colapsado. Everett dedujo que tal indeterminación a la hora del colapso de la función de onda es una característica que no pertenece a nuestro universo: en nuestro universo cada partícula está en su sitio y realiza su función, luego una partícula que puede surgir en cualquier estado, se encuentra fuera de nuestro universo justo antes de colapsarse. ¿Dónde se encuentra justo antes del colapso? En la dimensión de las funciones de onda, a la que podemos llamar campo espacial vibratorio (ver Conceptos Cuánticos). Y ¿Dónde y en qué estado se colapsará? En aquel universo y estado que le sea propicio para colapsarse, es decir, la función de onda define a una partícula que puede colapsarse en un estado de entre gran cantidad de probabilidades, y tal colapso no depende del azar, sino del conjunto que ofrezca más posibilidades de provocar el colapso. Con ello, cada uno de los estados posibles de la partícula se producen en otros universos, cada estado en un universo diferente capaz de colapsar la función de onda. Nosotros sólo podremos medir uno de esos estados: el que es propicio ser detectado por nuestra realidad. En los otros universos la partícula escogerá otro estado diferente y será detectable por otros mecanismos propios de la realidad de tal universo (ver Multiverso). Todos los resultados obtenidos, si se midiera el colapso de la partícula en todos los universos donde se produce tal reducción, son simultáneos, lo cual implica que nuestra realidad está reducida a una sola probabilidad de entre millones por cada partícula, lo que explicaría que puedan existir aproximadamente 10100 universos indetectables por nosotros. El colapso de la función de onda es el punto en que surge la manifestación de un substrato cósmico que es indescriptible para nosotros, la esencia del Todo, el campo primordial.

De esta incertidumbre de la función de onda, en la que el colapso proporciona una partícula que lleva en sí toda la información de su origen (pues en el instante de colapsarse lo puede hacer en multitud de universos simultáneamente; ver principio de Huygens, y fenómeno holográfico de la onda en Conceptos Cuánticos) también surge otra hipótesis de carácter fabuloso: el universo holográfico. Dice esta hipótesis que el universo es el efecto de una estructura de holograma existente en otras dimensiones (básicamente dos, aunque pueden llegar a ser nueve o más) que lo conforman, por lo que a las tres dimensiones que manejan nuestros sentidos, habría que sumar estas otras: un mínimo de cinco dimensiones. El holograma que podemos usar en nuestras vidas es un producto de la óptica y el uso de los láseres polarizados (de una frecuencia muy precisa de radiación), y consiste en un complicado proceso "fotográfico". Uno de los láseres se proyecta sobre un objeto y se refleja con todos los detalles de relieve de tal objeto. El otro láser se refleja en un espejo sin irregularidades. Ambos reflejos se hacen converger en una película fotográfica especial que registra la interferencia de todas las longitudes de onda resultantes. Esa impresión obtenida incluye todos los datos referentes a cada uno de los rayos actuantes. Si se proyecta una radiación láser hacia tal grabación, se obtiene un reflejo tridimensional del que se pueden observar varias perspectivas del objeto grabado. La imagen obtenida parece flotar sobre la fotografía y cambia según el ángulo de visión. La hipótesis del universo holográfico defiende que toda la información de la que es producto nuestro universo se encuentra almacenada en dos dimensiones y, lo que para nosotros es la realidad tridimensional, sólo es un efecto de aquellas. Debido a la infalible 2ª ley de la termodinámica, nunca puede disminuir el desorden en un sistema cerrado, y supuesta la más que probable característica de que nuestro universo es un sistema cerrado, el desorden de nuestro universo no puede disminuir, y la información (que es orden al fin y al cabo) no puede aumentar, y puesto que la teoría cuántica demuestra que el orden no puede disminuir, los agujeros negros no pueden ser trituradores de la información almacenada en la materia que se tragan. Susskind y Hooft defendieron en 1993 que la información no se perdería dentro de un agujero negro si se encontrara almacenada holográficamente en su superficie (y no se referían a hologramas ópticos, sino a estados de funciones de onda capaces de contener la información necesaria). Sometida a las condiciones de la gravedad cuántica y basándose en las matemáticas usadas en las técnicas holográficas, la teoría de cuerdas (ver la teoría de cuerdas en Teoría de superfuerza o fuerza unificada) estudiada en 1998 por Maldacena se hizo más sencilla al aplicarle espacios de cinco dimensiones (cálculo matricial), pues con tres dimensiones no se podían relacionar entre sí las distintas cuerdas vibrantes estudiadas. Aplicando el espacio de cinco dimensiones al interior de un agujero negro se deduce que este es resultado del holograma de cuatro dimensiones en la superficie del agujero. Con ello se puede lanzar la hipótesis de que el universo es un holograma de muchas dimensiones y que su periferia está formada por varias dimensiones que definen a las otras.

Cuando se han realizado experimentos para tratar de determinar si los fotones son ondas o partículas, y que tratan de medir la trayectoria de los fotones, han concluido con que a medida que se afinan los instrumentos de medición de la trayectoria (prevaleciendo el aspecto corpuscular) más difícil es captar su característica como onda. Experimentos recientes han conseguido que se pueda medir la trayectoria y que la característica de onda siga siendo medible (mediante el experimento de las dos rendijas y las líneas de interferencia). Con ello se ha demostrado que las partículas se siguen comportando como ondas incluso cuando son emitidas una a una. Esto ha llevado a los científicos a sugerir que el aspecto corpuscular de las partículas no es su aspecto real, y que sí lo es su aspecto ondulatorio. Además, la función de onda de Schrödinger determina que cuando mayor es la aceleración de la partícula, menor es la longitud de onda de dicha función, lo que aumenta la probabilidad de encontrar la partícula en las cercanías de un punto, y viceversa al decelerar. Pero también se ha podido experimentar que las partículas no tienen estados cuánticos determinados individualmente, sino que son siempre superposiciones colectivas de estados, de modo que no es la propiedad de una sola partícula la que transmite la información, sino el estado del conjunto de partículas. La función de onda superpuesta de un sistema cuántico completo describe el estado posible de cada partícula que lo forma. Es una característica de tales partículas del conjunto el mantener una relación entre ellas incluso separándolas a cualquier distancia. Para comprender mejor el fenómeno de no localidad, es necesario conocer el experimento Einstein-Podolski-Rosen (E-P-R), que inicialmente fue un experimento mental hasta que se pudo realizar físicamente. En la teoría, dos partículas unidas, en las que sus spines se complementan uno con el otro de modo que el spin total es cero, son separadas y trasladadas a una distancia considerable. El experimento mental dice que si podemos medir el espín de cada una de las dos partículas, se puede conocer el estado de ambas simultáneamente (ver Entrelazamiento). Con ello se pretendía demostrar que el principio de incertidumbre de Heisenberg no se ceñía totalmente a la realidad. Llegado el tiempo en que el experimento se pudo realizar físicamente, de manos de Aspect y de Gisin, no se obtuvo exactamente lo que E-P-R esperaban. En realidad, tras separar las partículas cuyos spines eran complementarios, y efectuar la medición del spin en una de ellas, la otra partícula mostraba un spin complementario instantáneamente. Las medidas en una de ambas partículas no informaban sobre el estado de la otra, sino que inducían dicho estado. El hecho de efectuar la medición en una de las partículas colapsa la función de onda en el estado complementario en la otra partícula. Experimentos que han implicado a un mayor número de partículas y a distancias kilométricas no han demostrado otra cosa distinta a la ya experimentada, ratificando la no localidad de las partículas y la velocidad de enlace muy superior a la de la luz. Ya en 1936, Schrödinger sugirió que las partículas no tienen sus estados cuánticos definidos individualmente, sino en colectividad, de modo que la función de onda superpuesta de un sistema cuántico determina el estado de cada partícula que forma el sistema.

A renglón seguido de estos experimentos se han realizado en el año 2004 dos experimentos por equipos de científicos separados, demostrando que el estado cuántico de átomos enteros puede ser teletransportado, pues durante el proceso, el estado cuántico del átomo original se destruye para aparecer en el átomo destino. Podría ser la base del funcionamiento de los ordenadores cuánticos, con una velocidad de comunicación entre ellos cuasi instantánea y sin necesidad de estar interconectados.

Pero la teoría cuántica no nos dice nada acerca de cómo sucede el paso de una partícula o sistema de un estado a otro. Un sistema se encuentra en un conjunto de estados posibles, superpuestos, de los que cualquiera puede ser el estado real. Es al medirlo, al observarlo cuando se colapsa la función de onda del sistema y surge en un estado único y determinado, de entre un conjunto de probabilidades. Si nadie lo observa ni lo somete a experimentación, el sistema vuelve a ser una superposición de estados. Es difícil de entender, pero... ¿cómo sería el universo si no hubiera nadie para observarlo? Con toda exactitud, sería un sistema de estados superpuestos dispuesto a colapsarse en uno solo de tales estados, siempre que exista una causa para ello. El hecho de que la posición de un electrón sea probabilística hace que el universo entero lo sea también, y esto implica que ocupa todos los posibles estados de un sistema finito, es decir, con límites, lo que le da una configuración de múltiples estados o multiverso, como la nube electrónica del átomo es multicapa u multinivel. A esto se añade que en la estructura de las partículas, los quarks, el espacio y el tiempo no estén definidos o sufran el efecto de otras leyes, de las cuales resulta el supuesto vacío, lleno de fluctuaciones cuánticas.

Por último, es necesario nombrar que la teoría cuántica se está usando actualmente para diseñar ordenadores mucho más rápidos y potentes. Se diseñan nuevos mecanismos electrónicos capaces de almacenar un bit (unidad mínima de almacenamiento de datos) en un solo electrón, con la capacidad añadida de tener más de dos estados (y no sólo el 0 ó el 1, como ocurre en los ordenadores actuales) sino que puede vibrar en múltiples frecuencias y cada una de ellas ser un estado de información. Su gran sensibilidad a las influencias externas no les permite ser usados por ahora, pero su utilidad será mejorada por los investigadores. Por otro lado, los ordenadores cuánticos van a carecer de cableados y de sistemas de circuitos convencionales, pues las partículas serán sustituidas por ondas, probablemente fotones, de modo que los datos no serán bits en estado 0 ó 1, sino qbits definidos por la posición, el giro o la vibración de un átomo, y capaces de presentar múltiples estados entre el 0 y el 1. Para modificar un estado atómico se deberá lanzar un fotón con un láser, conteniendo la información necesaria, contra este y posicionarlo en condiciones de permanecer estable en el nuevo estado. El inconveniente es que otras ondas, como los rayos cósmicos, pueden alterar dicho estado estable y hacer que la máquina sea inservible o, al menos, poco fiable por ahora.

La medicina también se está beneficiando de las aplicaciones de la física cuántica, mediante el uso del detector de los positrones (TEP) emitidos por el uso de la glucosa radiactiva que se suministra al cerebro para detectar el foco de actividad neural. También mediante el uso del IRM, que se basa en la detección de las señales emitidas por los núcleos atómicos del organismo al forzar un cambio de alineación en los mismos mediante un campo magnético elevado. Del mismo modo, el uso del TAC, consistente en obtener imágenes de secciones transversales del organismo mediante el uso de rayos X, permite observar el interior del cuerpo de modo sencillo sin tener que usar cirugía.

Otra importante aplicación de la física cuántica es la nanotecnología, propuesta por Richard Feynman, y consistente en la fabricación de máquinas del tamaño de moléculas usando los conocimientos del átomo que proporciona la física cuántica. Por ejemplo, se están ensayando los nanotubos de carbono, que son unos tubos huecos formados por átomos de carbono que, con 1/60 del peso del acero y 50000 veces más finos que un cabello humano, presentan 100 veces mayor resistencia mecánica que este, y además son buenos conductores de la electricidad lo que les hace idóneos para ser usados como cables conductores que interconectarían unas moléculas con otras. Ya se ha experimentado con circuitos transistorizados con estos nanotubos, resultando algo lentos en su respuesta, pero increíblemente minúsculos. Otra aplicación de estos es como emisores de electrones a muy bajo voltaje cuando están dopados con boro, lo que les permite utilizarse para fabricar pantallas de altísima definición. También se han construido pequeños motores del tamaño de unos cien átomos. También se está investigando con la transmisión láser mediante silicio para ser aplicado a superordenadores y equipos optolectrónicos, experimento realizado con pequeños trozos de dióxido de silicio de unos 500 nanómetros a los que se dispara con láser, y en el que se consigue que estos trozos no sólo emitan la luz reflejada, sino que al ser estimulados por el láser produzcan emisiones propias de luz, además de la reflejada.

A toda esta investigación se añade el estudio de la superconductividad, propiedad que presentan determinados materiales y que consiste en la escasa o nula resistencia al paso de la corriente eléctrica, en contra de la resistencia que tienen el cobre o el aluminio, que aunque es baja, supone elevadas pérdidas de energía en forma de calor. La propiedad de la superconductividad se descubrió en experimentos a temperaturas cercanas al cero absoluto (-273 ºC), y actualmente las investigaciones se centran en la búsqueda de materiales que presenten esta propiedad a temperatura ambiente, sobre todo los materiales cerámicos, los más capaces en este aspecto, pero más difíciles de manejar debido a su composición granulosa e irregular, formada por materiales complejos mezclados que hace que su función de onda sea imposible de resolver. Bardeen, Cooper y Schrieffer han planteado la primera teoría aceptable de la superconductividad, basada en las alteraciones producidas por los electrones al circular por una retícula, alteraciones capaces de generar una ondulación en la retícula que puede atrapar a otro electrón y generar una pareja de electrones capaz de vencer la repulsión entre ellos, lo que les permite moverse sin resistencia por toda la retícula.

Pero el más misterioso comportamiento de los elementos del universo cuántico es el fenómeno conocido como "entanglement" en inglés, que significa Entrelazamiento. Tiene su origen a raíz de los resultados de los estudios de las propiedades de la luz. Todo comenzó con el experimento de Young (principios s.XIX) de la doble rendija, que se basó en la interferencia entre ondas y fue la demostración de que la luz está formada por ondas: la luz proyectada hacia una pantalla pasa antes por dos ranuras de pocos milímetros, separadas entre si un par de milímetros, situadas en un plano anterior a la pantalla paralelo a esta, e iluminaba la pantalla con una alternancia de franjas luminosas y oscuras típicas del fenómeno de la interferencia entre ondas. El patrón de interferencia sólo se da en las ondas, y no en las partículas, pues en estas el patrón que se obtiene es a modo de campana de Gauss. En 1905 Einstein demostró por medio del efecto fotoeléctrico que la luz también se comportaba como haces de partículas al incidir sobre la materia. Louis De Broglie demostró en 1924 que otras partículas, como los electrones, también se comportan como ondas. Realizando el experimento de Young en el s.XX con nuevos medios mucho más sofisticados, se hizo el bombardeo fotón a fotón, para evitar que dentro del experimento se encontraran varios fotones a la vez. El fotón que se dirige hacia una pantalla para ser detectado, alcanza su objetivo y tras memorizar mediante el ordenador el efecto global de cada uno y de todos los fotones, se observa que vuelve a aparecer el patrón de interferencia siendo que cada fotón no ha podido interferir con los otros. La conclusión a la que se llega es que el fotón pasa a través de las dos ranuras a la vez y al salir de ellas interfiere consigo mismo, pues se da la superposición de estados que declara la mecánica cuántica: puede componerse un nuevo estado del sistema a partir de dos o más estados del mismo, de manera tal que el nuevo estado comparte alguna de las propiedades de cada uno de los estados combinados; la partícula tendrá probabilidades no nulas de estar en cada uno de los dos estados, pero no en algún otro lugar, si se observa la posición de la misma.

Al pasar por una rendija se halla la partícula en un estado, y al pasar por la otra rendija se halla en otro estado. Para diferenciar ambos estados habría que observar a la partícula durante su paso por las rendijas, pero como se observa al final, cuando llega a la pantalla, ambos estados son probables debido a la superposición de ambos. Ambos estados se dan y la partícula interfiere consigo misma al llegar a la pantalla. Este mismo experimento se ha realizado con electrones, neutrones y con átomos, resultando siempre el patrón de interferencia, apoyando a De Broglie en su principio con respecto al comportamiento ondulatorio de las partículas. Es otro misterio que se suma al del entrelazamiento.

Presagiado en sus teorías por Albert Einstein, y a partir del principio de superposición de estados de la mecánica cuántica, este efecto del entrelazamiento consiste básicamente en que la medición realizada sobre una partícula cambia instantáneamente (por encima del límite de la velocidad de la luz y sin importar la distancia) las propiedades de otra partícula que haya surgido de la misma fuente que la primera. De modo más concreto y aplicando el principio de superposición:

Supongamos que en un sistema formado por dos partícula, una partícula puede estar en un estado E1 o E2, ambos incompatibles. El sistema contiene el conjunto de estados E1E2 y una partícula estará en el estado E1 y la otra en el E2. Del mismo modo otro conjunto de estados similar que esté definido en tal sistema, sea el conjunto E3E4, implicará que una partícula estará en el estado E3 y la otra en el E4. Contemplando ambos conjuntos de estados E1E2 + E3E4, por el principio de superposición el sistema se halla entrelazado en una combinación de estados, de tal modo que, en el sistema, ambas partículas pueden encontrarse en cualquiera de los estados pero si medimos el estado de una, la otra partícula no podrá estar en ese mismo estado, sino en el complementario. Mientras el sistema esté entrelazado, las partículas pueden albergar cualquiera de los estados, y es al medir el estado de una de ellas cuando la otra se caracteriza. No se puede medir a una sin afectar a la otra. El principio de superposición de estados da lugar al entrelazamiento.

La teoría permite este fenómeno pero no explica porqué ocurre. Para Einstein, el misterio quedaba sin resolver por culpa de unas "variables locales ocultas": defensor de la teoría cuántica como una herramienta probabilística siempre argumentó que algún día se descubrirían nuevas variables (locales y ocultas según él) que eliminarían el cálculo probabilístico en la definición cuántica. Por ello Einstein, Podolsky y Rosen, en 1935, juzgaron como incompleta a la física cuántica, e incluso definieron experimentos para demostrar la existencia de tales "variables ocultas".

En 1957 D. Bohm e Y. Aharonov analizaron los resultados del experimento realizado por Wu y Shaknov diez años antes y demostraron que el entrelazamiento se produce realmente. El teorema de John Bell en 1964 muestra una discrepancia entre la mecánica cuántica y la interpretación basada en "variables locales ocultas" (unas hipotéticas variables nunca descubiertas, necesarias para demostrar el porqué de la incertidumbre de la física cuántica), por lo que no es demostrable el punto de vista de Einstein a cerca de la explicación del fenómeno por medio de dichas variables desconocidas. Para Bell, la existencia de variables locales ocultas no era compatible con la explicación del microcosmos usando la mecánica cuántica. Si las variables ocultas poseen la información necesaria para completar la explicación cuántica, surgen contradicciones que desmoronan a la mecánica cuántica. En 1972 J. Clauser y S. Freedman experimentaron nuevamente el entrelazamiento. Pero fueron A. Aspect y su equipo quienes probaron que el experimento sugerido por Einstein, Podolsky y Rosen no sólo no demostraba que existían "variables ocultas" sino que demostraba que el entrelazamiento es real, y no sólo para pares de partículas, sino hasta para tríos.

El electrón y las partículas subatómicas viven en un "espacio de Hilbert", construcción matemática al margen de la física y que describe las reglas del universo cuántico, reglas que no tienen un significado razonable para nuestras experiencias. Este espacio de Hilbert se basa en los números complejos y usa unos entes matemáticos llamados vectores, que se caracterizan por que tienen un valor (magnitud) y una dirección en la que dicho valor ejerce un efecto. Se les dibuja como flechas, y la punta señala la dirección, y sus estudio se realiza mediante el cálculo matricial.

Cuando un electrón desciende dos niveles energéticos dentro de un átomo, libera energía en forma de un fotón por cada nivel: de este modo se producen dos fotones desde un mismo átomo y, por ser fruto de una misma fuente, están ambos entrelazados eternamente, y siempre viajan en direcciones opuestas entre sí. Cualquier cosa que afectara a una de estas partículas también afectará a la otra de modo instantáneo, sin importar la distancia que media entre ambas.

 

 

"La física de la inmortalidad", Frank J. Tipler (año 1994)

"En busca del Big Bang", John Gribbin (año 1986)

"Fragmentos de una enseñanza desconocida", P.D. Ouspensky (año 1949)

"¿Qué es la vida?", Erwin Schrödinger (año 1943)

"Tratado sobre los siete rayos, Tomo I", Alice A. Bailey (año 1936)

"La búsqueda científica del alma", Francis Crick (año 1994)

"Descubrimientos estelares de la física cuántica" Ramón Marqués (año 2003)

"Nueva guía de la Ciencia", Isaac Asimov (año 1985)

"La historia definitiva del infinito", Richard Morris (año 1997)

"Visiones", Michio Kaku (año 1997)

"Entrelazamiento", Amir D. Aczel (año 2002)