Día 1
Dr. Rodrigo Sacahui, presidente Asociación Guatemalteca de Física.
Desde 1998 sabemos que el universo se está acelerando. Esto ha generado una nueva incógnita en nuestro entendimiento del origen y evolución del universo. La causa de esta aceleración se desconoce y se le llama energía oscura. Los misterios son varios: qué es la energía oscura y por qué la aceleración es tan pequeña que hasta ahora la observamos. Hasta ahora, la única propuesta consistente para explicar este fenómeno es el paisaje de la teoría de cuerdas. Sin embargo, antes de aceptar esta explicación se necesita entender qué es este paisaje y confirmar que sí resuelve el problema de la energía oscura. En esta presentación describiremos los retos y trabajos recientes en esta dirección.
Dra .Silvina Ponce Dawson, Dr. Arturo Martí, Dr. José Luis Carrillo
Moderador: Dr. Juan Ponciano
RECESO
Podemos catalogar las revoluciones de la física de la siguiente manera: la mecánica que permite el estudio de la materia como partículas, el electromagnetismo que permite el estudio de la materia como ondas, la relatividad para unificar conceptos de espacio y tiempo, y por último la cuántica para entender la materia y el espacio a nivel subatómico.
Si nos enfocamos en la teoría cuántica, esa primera revolución inició a principios del Siglo XX y a lo largo de ese siglo nos permitió entender y usar la tecnología de los semiconductores, de los láseres, etc. llevando a la realidad la nanociencia y la nanotecnología ya al final del siglo. Ya durante el Siglo XXI también se ha explorado más sobre la nanociencia y sus aplicaciones. Ahora bien, en esta charla vamos a centrarnos en la segunda revolución cuántica que también inició en la última parte del Siglo XX: la computación cuántica y la información cuántica.
Los algoritmos cuánticos iniciaron pronto con aportes como los de Deutsch-Jozsa (1992), Shor (1995) o Grover (1996). Estos algoritmos se diferencian de los clásicos porque son algoritmos que usan las propiedades cuánticas de la superposición, la medición y el entrelazamiento cuántico.
Actualmente, gracias a la precisión de las tecnologías para la manipulación individual de partículas se ha abierto la puerta a la segunda revolución cuántica. Las computadoras cuánticas actuales aún presentan muchos retos como el reducido número de qubits o la decoherencia entre otros.
En concreto, vamos a hablar sobre los conceptos clave de esta revolución: superposición, medición y entrelazamiento. Sobre algunas de las tecnologías actuales que han permitido crear computadoras cuánticas: óptica cuántica, superconductividad, átomos fríos. Y claro, también hablaremos sobre algunos de los algoritmos cuánticos y sus implementaciones en algunas de las computadoras cuánticas actuales.
Presentamos un modelo fenomenológico de nucleones de quark-diquark basado en holografía AdS/QCD de frente de luz de con el fin de ser utilizado en simulaciones de colisiones proton-proton y proton-Au. El modelo está construido a partir de funciones de distribución de partones fenomenológicas de diquarks basadas en una aproximación de la correspondencia AdS/CFT con la QCD quantizada en el frente de luz. Estas funciones fueron ajustadas con datos de distribuciones de quarks en protones de la colaboración NNPDF. Así también, son utilizadas las propiedades del gauge de color SU(3) en bariones para aproximar secciones eficaces para diquarks. De esta manera, hemos armado un modelo de nucleón y lo implementamos en el paquete de simulación PYTHIA. El modelo considera los cuatro posibles estados de diquarks en la valencia de los nucleons, el estado escalar y los estados axial-vectorial, para participar en procesos de dispersión dura junto con quarks y gluones en las colisiones. Gracias a la maquinaria de hadronización ya existente en PYTHIA, pudimos comparar nuestro modelo, en la razón de producción de bariones sobre mesones en la región de momento transversal $0 \lesssim p_T \leq 20 $ GeV, con procesos duros de PYTHIA predeterminados y datos experimentales de los experimentos ALICE y PHENIX. El modelo presentado muestra un aumento de la producción de bariones en la región $1 \lesssim p_T \lesssim 4 $ GeV, un fenómeno también observado en experimentos de colisiones de protones a energías de centro de masa del orden de TeV.
We discuss solutions to the Einstein equations in a stationary axisymmetric vacuum. In this case, the Einstein equations are equivalent to the so-called Ernst equation. The most prominent solution is equivalent to the Kerr solution, which is interpreted as a rotating black hole. In Weyl's cylindrical coordinates, the horizon lies on the symmetry axis, and it shrinks to a point as the angular momentum of the black hole increases. In order to understand this spacetime, the motion of individual test particles is studied under different initial conditions. The numerical tests show how the trajectories bend around the black hole. Finally, a toy model of an accretion disk is presented. The light tracing method is used to track the source of the photons seen by an observer at a fixed position, which will allow us to observe the apparent position of the disk.
En los últimos años se han encontrado sorprendentes relaciones entre teorías cuánticas de campo y gravedad. Tales resultados son incluso tan poderosos que permiten expresar interacciones entre gravitones como el cuadrado de interacciones de gluones. En esta platica pretendemos mostrar algunos ejemplos sobre las relaciones modernas entre gravedad y QCD así como otros ejemplos que permite expresar soluciones clásicas de la relatividad general de Einstein en términos de soluciones de las ecuaciones de Maxwell.
Dentro de los métodos perturbativos modernos de la teoría cuántica de campos, resaltamos el Formalismo de Espinores de Helicidad (FEH), siendo una poderosa herramienta matemática, para el cálculo de amplitudes de helicidad; presentamos la simplificación de ésos cálculos en un proceso de dispersión para partículas con masa, candidatas a materia oscura.
En la charla se expondrá un trabajo de investigación colaborativo entre las universidades de la BUAP en México y la UNAH donde se investiga el acoplamiento de partículas escalares con gravitones. En particular, se examina el proceso de decaimiento del Higgs a gravitones de la siguiente manera: Se comienza modelando la interacción Higgs-gravitones mediante la acción invariante más general posible, como se hace en teorías de campo efectivo; luego, se utilizan los métodos de teoría de perturbación de gravedad cuántica para obtener expresiones para los vértices de interacción Higgs-gravitones; finalmente, con los vértices de interacción construimos las amplitudes para los distintos canales de decaimiento. Posteriormente, estas amplitudes sirven para conectar los resultados teóricos con cantidades experimentalmente medibles, dándonos una idea de sus posibilidades de ser observadas.
En este trabajo, presentamos la implementación de un método de clasificación de partículas captadas por un detector de radiación Cherenkov de agua. Utilizando simulaciones de Cascadas de Aire Extensas en CORSIKA y Geant4. Partiendo de un conjunto de datos desbalanceado que contiene siete tipos diferentes de partículas (electrón, muón, anti-muón, positrón, pión, anti-pión y protón) con 12 valores distintos de voltaje causado por su interacción con un detector de Radiación Cherenkov de agua, se utilizaron los siguientes algoritmos para clasificar las partículas como una de los 7 tipos mencionados: regresión logística, Naive Bayes y Random Forest. Luego, se implementó una red neuronal cuyo objetivo principal era que pudiera clasificar los diferentes tipos de partículas basados en 12 valores de voltaje.