EXPOSITORES

Charlas plenarias

Eyecciones de gas en estrellas jóvenes - Dr. Alejandro Raga

Mientras las estrellas tienen un espectro "continuo" (con un bello arcoiris al pasar su luz a travez de un prisma) con bandas negras ("lineas de absorcion") correspondientes a transiciones entre niveles ligados de distintos atomos/iones, las "nebulosas" (regiones emisoras del medio interestelar) tienen un espectro con llamativas "lineas de emision". Por la decada de 1950, Guillermo Haro y George Herbig descubrieron un conjunto de "mini-nebulosas" (apenas resueltas en sus imagenes) con un espectro de lineas de emision algo peculiar.

Estas nebulosas han sido llamados los "objetos Herbig-Haro". Inicialmente se penso que eran estrellas en proceso de formacion, pero mas tarde se vio que correspondian a material eyectado por estrellas jovenes. Estas estrellas tienen un disco de acrecion (del cual se vienen formando la estrella y su eventual sistema planetario) y un fuerte viento (proveniente de la estrella y/o el disco) colimado a lo largo del eje de rotacion del sistema. Estos chorros de gas interactuan con el medio interestelar circundante produiendo los objetos Herbig-Haro (HH).

Hare un resumen de las multiples observaciones de los objetos HH y los modelos que se han desarrollado para interpretarlas. En particular, presentare los ultimos modelos de "chorros subitos" (que se encienden y apagan en un tiempo corto comparado con su tiempo evolutivo) y su aplicacion a algunos flujos eyectados por estrellas jovenes. Este "modelo chapin" fue desarrollado durante mi estancia en Guatemala el año pasado.

La aceleración del universo y la teoría de cuerdas - Dr. Fernando Quevedo

Desde 1998 sabemos que el universo se está acelerando. Esto ha generado una nueva incógnita en nuestro entendimiento del origen y evolución del universo. La causa de esta aceleración se desconoce y se le llama energía oscura. Los misterios son varios: qué es la energía oscura y por qué la aceleración es tan pequeña que hasta ahora la observamos. Hasta ahora, la única propuesta consistente para explicar este fenómeno es el paisaje de la teoría de cuerdas. Sin embargo, antes de aceptar esta explicación se necesita entender qué es este paisaje y confirmar que sí resuelve el problema de la energía oscura. En esta presentación describiremos los retos y trabajos recientes en esta dirección.


Modelos cinemáticos de la tectónica reciente de Centro América Norte: el aporte de la geodesia satelital - Dra. Beatriz Cosenza

La interacción entre las placas de Cocos, Caribe y Norte América en América Central produce deformaciones complejas que son acomodadas principalmente por el sistema de fallas sub-paralelas sinistrales de Motagua y Polochic, una serie de grabens con orientación aproximada norte-sur al sur de la falla del Motagua, la zona de subducción mesoamericana y fallas dextrales a lo largo del arco volcánico mesoamericano. A estas fallas se asocian sismos grandes como el terremoto destructivo de que ocurrió en la falla del Motagua en 1976 (Mw 7.5) y el terremoto de Champerico en la zona de subducción en 2012 (Mw 7.5). A partir de 1976, se han propuesto distintos modelos para describir el marco tectónico de la región. Con el tiempo, la incorporación de datos de geodesia satelital ha contribuido a confirmar o modificar distintos elementos de dichos modelos. La adquisición de mediciones de posiciones de marcas GPS a partir de finales de los noventa y el subsecuente incremento en la densidad espacial y temporal de estos puntos de medición ha permitido cuantificar la tasas de desplazamiento reciente entre algunas de estas fallas, así como las tasas de acumulación de déficit de desplazamiento en las mismas, que constituyen un indicador de la energía disponible para producir terremotos. Voy a presentar la última versión del modelo cinemático de la tectónica reciente de Centro América norte basado en GPS, sus alcances, su relación con los modelos anteriores y sus limitaciones. Además, voy a utilizar dicho modelo como base de comparación con resultados preliminares obtenidos a partir de otro tipo de datos geodésicos: la interferometría de radar de apertura sintética InSAR.

Información Cuántica y Computación Cuántica, la segunda revolución cuántica-Dr. Giovanni Ramírez

Podemos catalogar las revoluciones de la física de la siguiente manera: la mecánica que permite el estudio de la materia como partículas, el electromagnetismo que permite el estudio de la materia como ondas, la relatividad para unificar conceptos de espacio y tiempo, y por último la cuántica para entender la materia y el espacio a nivel subatómico.

Si nos enfocamos en la teoría cuántica, esa primera revolución inició a principios del Siglo XX y a lo largo de ese siglo nos permitió entender y usar la tecnología de los semiconductores, de los láseres, etc. llevando a la realidad la nanociencia y la nanotecnología ya al final del siglo. Ya durante el Siglo XXI también se ha explorado más sobre la nanociencia y sus aplicaciones. Ahora bien, en esta charla vamos a centrarnos en la segunda revolución cuántica que también inició en la última parte del Siglo XX: la computación cuántica y la información cuántica.

Los algoritmos cuánticos iniciaron pronto con aportes como los de Deutsch-Jozsa (1992), Shor (1995) o Grover (1996). Estos algoritmos se diferencian de los clásicos porque son algoritmos que usan las propiedades cuánticas de la superposición, la medición y el entrelazamiento cuántico.

Actualmente, gracias a la precisión de las tecnologías para la manipulación individual de partículas se ha abierto la puerta a la segunda revolución cuántica. Las computadoras cuánticas actuales aún presentan muchos retos como el reducido número de qubits o la decoherencia entre otros.

En concreto, vamos a hablar sobre los conceptos clave de esta revolución: superposición, medición y entrelazamiento. Sobre algunas de las tecnologías actuales que han permitido crear computadoras cuánticas: óptica cuántica, superconductividad, átomos fríos. Y claro, también hablaremos sobre algunos de los algoritmos cuánticos y sus implementaciones en algunas de las computadoras cuánticas actuales.

Imágenes mamográficas de contraste de fase con luz sincrotrón - M.M.P. Lucía Mariel Arana Peña

Según las estadísticas de GLOBOCAN, el cáncer de mama es la principal causa de muerte por cáncer en mujeres en todo el mundo. Asimismo, es el cáncer más diagnosticado entre las mujeres a nivel mundial: 1 de cada 4 cánceres diagnosticados es cáncer de mama. Una detección temprana, un diagnóstico eficaz y un tratamiento óptimo tienen la capacidad de reducir sustancialmente las tasas actuales de mortalidad por cáncer de mama, y es aquí donde la Física entra en acción.

La herramienta de referencia más utilizada para el diagnóstico precoz del cáncer de mama es la mamografía digital (MD). Sin embargo, pueden existir imágenes que sugieren hallazgos patológicos de la mama y que realmente no lo son. En ocasiones no es posible observar pequeños depósitos de calcio que pueden indicar la presencia de un cáncer de mama en estadio temprano. Es de suma importancia que se desarrollen nuevas técnicas que tengan el potencial de detectar tempranamente el cáncer, con el desafío de combinar los requisitos alta resolución de las imágenes de mama, con una buena detección de lesiones y una adquisición de datos a baja dosis de radiación.

En esta charla presentaré la manera en que se puede enfrentar este desafío por medio del uso de luz sincrotrón como fuente de radiación. Comprenderemos cómo las propiedades de la radiación sincrotrón, en particular el contraste de fase, proveen una clase de fuentes de rayos X más propicia para obtener imágenes de detalles que son muy pequeños o poco diferenciables.

Expondré cómo el proyecto SYRMA-3D en el sincrotrón Elettra (Trieste, Italia) ha realizado estudios clínicos mamográficos y otros estudios de orientación clínica que demuestran una mejor calidad de imagen, con una menor dosis de radiación, y con un mayor poder de diagnóstico con respecto a la MD.

Instrumentación reconfigurable de alto desempeño basado en FPGAs/SoC en detectores de partículas. -Ing. Luis Guillermo García

Los experimentos modernos basados en física de altas energías se caracterizan por un gran número de detectores, cada uno con varios canales de adquisición (>10^4). El flujo de datos generados (en el orden de terabytes por segundo) debe ser adquirido, filtrado y procesado online previo a su almacenamiento para su posterior análisis. Experimentos como COMPASS situado en el CERN, utilizan miles de canales por cada detector para realizar espectroscopia hadrónica y otros estudios de la estructura hadrónica. Distintos tipos de detectores, cómo Gas electron multipliers (GEM) y Electronic Calorimeters (ECALs), dependen de FPGAs (Field Programmable Gate Array) y ASICS (Application-Specific Integrated Circuit) como parte de sus sistema de control, monitoreo y adquisición de datos.


A menudo se utilizan estas herramientas para implementar algoritmos complejos para compresión de datos, filtrado y extracción de características de la señal con el propósito de manejar la información en tiempo real de la manera más eficiente. Los sistemas de adquisición basados en FPGA tienen la ventaja que permiten implementar diseños digitales complejos y reconfigurarlos a medida que nuevas actualizaciones del hardware externo o de los algoritmos utilizados lo necesiten. A medida que la complejidad de dichos algoritmos ha incrementado, se han agregado procesadores embebidos en las FPGAs en los llamados System on Chip (SoCs) los cuales agregan versatilidad para comunicación en red y procesamiento avanzado.


En esta charla haré una descripción sobre sistemas embebidos, FPGAs/SoCs y sus aplicaciones en algunos tipos de detectores de partículas para adquisición de alto rendimiento. Además presentaré otras aplicaciones de estos sistemas en otros contextos experimentales como la detección de rayos cósmicos y autómatas celulares entre otros.