Educación, investigación y doctorado: conceptos básicos y experiencias
Panorama general de las experiencias en educación, investigación y participación en el posgrado a nivel doctorado, de un profesor investigador del sistema educativo nacional, que se ha desarrollado profesionalmente en la academia. Se resalta la importancia, en lo general, así como la relevancia de la investigación, en particular del doctorado, en el ámbito académico y las expectativas para el desarrollo de nuestro país.
La investigación científica vista a través del sudoku
El Sudoku es un juego matemático que requiere sobre todo de una gran observación, razonamiento lógico, análisis de posibilidades y gran paciencia. Fue inventado en Japón en la década de los 70's del siglo pasado. A partir de 2005 se comenzó a popularizar en todo el mundo, al aparecer en revistas y periódicos de amplia circulación. El número de celdas utilizado y su complejidad tiene amplios rangos de variación. La complejidad depende del número de celdas por llenar, de la geometría utilizada y del número de datos que se tienen. Resolver uno de estos juegos representa un reto similar al que impone una gran gama de problemas dentro de la investigación científica. A través de esta plática, se verán las similitudes entre estas dos actividades y se verá su aplicación en el desarrollo de un marco elasto-plástico para explicar el comportamiento de los suelos expansivos.
Análisis del efecto Syntonic en la corteza cerebral de pacientes con estrabismo y ambliopía mediante EEG y MCD
El estrabismo y ambliopía (SA) son disfunciones visuales de alta jerarquía, acompañados de cambios corticales tanto en la substancia gris, como en la substancia blanca y presencia de onda theta en los lóbulos pre-frontales, motivo por el cual son clasificados como disfunciones de neuro-desarrollo. Syntonic es un tratamiento que utiliza luz no coherente, no polarizada, de banda ancha, la cual llega a la corteza visual primaria a través de la retina, convirtiéndola en una herramienta poderosa en el tratamiento de las disfunciones visuales como: estrabismo, ambliopía, lesiones cerebrales, dificultades de aprendizaje, y algunas patologías oculares. Syntonic permite aplicar terapia con acción local y no local, donde las longitudes de ondas largas y de baja energía estimulan el SNS. Las frecuencias medias equilibran la fisiología; las longitudes de ondas cortas y de alta energía estimulan el SNP. Es una terapia principalmente de acción neurológica con efectos neuro-conductuales usada en pacientes con disfunciones visuales. El grupo control (HCs) sirvió como referencia para los cambios obtenidos. A través del electroencefalograma cuantitativo (qEEG), la presente investigación midió, cuantificó y analizó el efecto del espectro visible en la corteza cerebral y su impacto en la eficacia visual de los participantes (SA y HCs). Se generó nueva información científica sobre la ruta neurológica de la luz en el cerebro de los pacientes con SA, la cual permite abrir nuevos caminos para su uso como tratamiento en pacientes con SA y otras disfunciones de neuro-desarrollo.
Evaluación de las propiedades hidrofóbicas y autolimpiables del recubrimiento SiO2@TiO2
Las superficies hidrofóbicas son superficies que presentan repelencia al agua. En la naturaleza existen claros ejemplos: hojas de loto, alas de insectos y pieles de animales. Las superficies se caracterizan por presentar ángulos de contacto con el agua mayores de 90° y ángulos de deslizamiento menores a 10°. Este fenómeno atrajo la atención científica debido a las potenciales aplicaciones en: superficies autolimpiables, anticorrosivas, reflectivas y recubrimientos anti-niebla, así como textiles resistentes a manchas. La unión de los compuestos de SiO2@TiO2 se ha estudiado ampliamente debido a las propiedades de autolimpieza e hidrofobicidad de estos. Además de su alta transparencia debido a la matriz, favorece el área superficial para catálisis, así como la transmisión de luz. El recubrimiento de SiO2@TiO2 combina las propiedades mecánicas (resistencia y dureza) e hidrofóbicas del SiO2 y las propiedades fotocatalíticas del TiO2 , que promueven la creación de sitios activos sobre la superficie, brindando un recubrimiento autolimpiable, resistencia a la corrosión química y a las rayaduras. Convencionalmente, el método sol-gel es la técnica más empleada en la síntesis de los recubrimientos SiO2@TiO2. Actualmente, el incremento de publicaciones y el desarrollo de patentes han demostrado que el uso de sonoquímica es capaz de reemplazar calentamientos y agitaciones convencionales en diferentes reacciones químicas. Por ello, la técnica de sonoquímica fue acoplada en el proceso se síntesis sol-gel, con el fin de producir un material libre de compuestos orgánicos volátiles para evitar su hidrólisis espontánea y acortar los tiempos de reacción, logrando explotar las propiedades autolimpiables del recubrimiento SiO2@TiO2.
¿Cómo hacer inteligencia artificial y no morir en el intento?
El área de Inteligencia Artificial ha recibido mucha atención en los años recientes, principalmente por los resultados obtenidos con técnicas de aprendizaje profundo o "deep learning". Es común ver en noticias algún sistema basado en Inteligencia Artificial que resuelve un problema hasta hace poco impensable. Por otro lado, las empresas y los gobiernos están invirtiendo fuertes cantidades de dinero en su desarrollo. Esto ha creado grandes expectativas pero también mucha especulación. En esta plática vamos a dar una breve introducción a la Inteligencia Artificial, sus principales áreas, su evolución, qué es lo que ha pasado en los últimos años, y qué es lo que se puede esperar.
La relevancia de la filosofía de la ciencia para la investigación científica
Al ocuparse de la estructura lógica de las teorías y reconstruir racionalmente las mismas, la filosofía de la ciencia está en condiciones de señalar deficiencias o lagunas en los fundamentos lógicos de las teorías, el tipo de explicaciones que ellas admiten, cuál es la estructura de sus tipos de aplicaciones, cuándo se considera que una aplicación es adecuada, o incluso contribuir a aplicar exitosamente la teoría a un nuevo fenómeno.
Diagnóstico de fallas mecánicas mediante la inclusión del comportamiento dinámico no lineal con diagramas de recurrencia
En el área del diagnóstico de fallas en maquinaria rotativa se han desarrollado con éxito una gran variedad de técnicas basadas en los análisis de vibraciones para la detección y predicción de dichas fallas con la finalidad de incrementar la vida útil de los equipos, evitar los paros no programados, proteger la salud de las personas y del medio ambiente. Sin embargo, el desarrollo tecnológico y la competitividad globalizada están llevando al máximo las exigencias de rendimiento y confiabilidad de la maquinaria. Esta nueva perspectiva obliga a mejorar los modelos utilizados por las técnicas actuales para el diagnóstico y en general para una comprensión más profunda del comportamiento dinámico de las máquinas. Los métodos de diagnóstico de fallas actuales están basados en modelos lineales que limitan la comprensión de los fenómenos dinámicos al no considerar su parte no lineal, la cual es una parte inherente de las mismas. El propósito del presente estudio es la inclusión de la parte no lineal para el diagnóstico de las fallas en maquinaria. La metodología propuesta son los diagramas de recurrencia que han venido siendo aplicados en otras áreas del conocimiento con buenos resultados. Dicha metodología es complementada con la implementación de nuevo método de integración que conserva las no linealidades durante el procesamiento de la señal de vibración. Los resultados basados en la caracterización de la fricción seca, han generado una nueva y mejor metodología para el diagnóstico de fallas de maquinaria. Con la nueva metodología se lograrán diagnósticos de falla más tempranos, precisos y un mejor entendimiento de los efectos de las no linealidades en el comportamiento dinámico.
Lógica difusa en el control de movimiento
El control de movimiento es considerado como el corazón de casi cualquier maquinaria y proceso automatizado, por lo que podemos verlo en diferentes sectores industriales tales como líneas de ensamble y producción textil, papel, impresión 3D entre muchas otras. Los controladores de movimiento se rigen por la posición, velocidad, aceleración y torque de los actuadores para generar movimiento sobre cualquier eje de una máquina. A menudo la maquinaria que se puede encontrar en una empresa consiste en múltiples ejes cuya posición y velocidad deben ser controlada de forma sincronizada para evitar colisiones mecánicas. Cada eje de movimiento esta constituido por un motor que genera desplazamientos lineales por medio de acoplamientos mecánicos en la flecha de este. Por otro lado, a medida que las computadoras se convirtieron en equipos principales gracias a la disponibilidad económica de componentes electrónicos, microprocesadores y procesadores de señales digitales, la coordinación del movimiento en las máquinas de múltiples ejes comenzó a cambiar hacia un paradigma controlado por computadora, en donde actualmente las técnicas de Inteligencia Artificial están impactando todos lo sectores industriales.
Optimización del enductado en trabes de concreto pretensado para puentes
En la segunda mitad del siglo XX, se comenzaron a proyectar y construir puentes empleando trabes de concreto presforzado, y esta tendencia a lo largo de los años ha ido a la alza debido a la practicidad que presenta este sistema constructivo, ya que al realizarse su producción en serie y modular las estructuras, es posible abatir los sobrecostos de un sistema construido in situ por lo que se convierte en una alternativa viable para la estructuración de puentes. Esta popularidad se debe a las condiciones mejoradas que ofrece con respecto al concreto reforzado, permitiendo librar claros mayores y usarlo en múltiples aplicaciones estructurales. La fuerza de presfuerzo utilizada en cables de acero denominados torones que se emplean para producir estas trabes puede generar grandes esfuerzos tanto en la superficie superior como en la inferior de las vigas de concreto, especialmente cerca de los extremos donde los momentos de peso propio son mínimos, así mismo la transferencia de grandes fuerzas de presfuerzo puede causar grietas locales. El enductado de torones que es el rompimiento intencional entre la adherencia del concreto y el torón de acero mitiga estos problemas; además es una alternativa para controlar los esfuerzos de tensión y compresión. El objetivo de la conferencia es presentar la metodología llevada a cabo para optimizar el proceso del análisis y diseño estructural del enductado de torones, ya que en la actualidad las reglas que gobiernan los códigos de diseño y normativas han sido establecidas en base a información empírica, así como juicio ingenieril y por consecuencia las secciones en donde se decide enductar son relativamente arbitrarias y están en función de la propuesta del diseñador estructural.
Procesamiento de imágenes y el estrabismo
Se presenta el desarrollo de transformaciones morfológicas que van desde la segmentación del cráneo en imágenes de resonancia magnética hasta el estudio de las pupilas para el estudio del estrabismo, así como la aplicación de luz para el estudio de los voltajes registrados en el cerebro. Dentro de la herramienta utilizada se encuentra la granulometría, mejora del contraste, filtrado, segmentación, mapeos cerebrales y probabilidad. El tratamiento de las imágenes se hace bajo el concepto de colectividad para asegurar la no generación de nuevos máximos o mínimos en la imagen procesada.
Sistemas eléctricos de distribución: áreas de investigación
Se presentan las tendencias de desarrollo de los sistemas eléctricos modernos de distribución y las áreas de investigación más prometedoras. Así mismo se da realce a los conceptos de Sistema de Manejo de Energía y el denominado cuarto de control. Los operadores de un cuarto de control necesitan herramientas basadas en inteligencia artificial o en algoritmos sofisticados, llamados sistemas de soporte de decisiones. Se hace énfasis en temas como pronóstico de demanda horaria a corto plazo, localización de fallas de alta impedancia, localización de fallas en alimentadores primarios, reconfiguración de sistemas de distribución, localización de bancos de capacitores, micro-redes inteligentes, capacidad de alojamiento de generación distribuida. Se muestran los resultados de algunas investigaciones realizadas.
La instrumentación electrónica y el procesamiento de señales en biosistemas: algunos casos de aplicación
Actualmente la instrumentación electrónica y el procesamiento de señales juegan un papel muy importante en la generación de conocimientos de procesos biológicos y no biológicos. En el caso de los procesos biológicos, están aquellos relacionados a la producción de alimentos, cuyo monitoreo preciso y confiable de las variables asociadas a ellos, ayudan a conferir beneficios tal como el incremento de tolerancia en las plantas hacia diversos factores bióticos y abióticos, y por consecuencia, en muchos casos, también a la producción de alimentos con mayores beneficios a la salud; en la plática se hablará del uso de la instrumentación electrónica y del procesamiento de señales en biosistemas, principalmente para el monitoreo de variables biológicas y su aplicación en el mejoramiento de tolerancia en las plantas hacia diversos factores bióticos y abióticos, además, se mencionarán algunos de los trabajos relacionados a estás áreas que se han realizado dentro de la Facultad de Ingeniería de la Universidad Autónoma de Querétaro.
Atribución de autoría de textos a través del análisis sintáctico automático
La Atribución de Autoría de Textos (AAT) es la tarea de encontrar, dado un conjunto de autores y de ejemplos de sus obras, al autor real de un texto disputado. La gran cantidad de texto electrónico revela el potencial de la AAT en diversas áreas, incluyendo labores de inteligencia, la ley (mensajes intimidatorios, notas suicidas, derechos de autor), ciencia forense computacional, entre otras. La última década puede ser vista como una nueva era para el análisis de la autoría, esta vez dominada por los esfuerzos para desarrollar aplicaciones prácticas orientadas a otro tipo de textos (emails, blogs, mensajes en foros, redes sociales, código fuente). La idea principal detrás de una atribución de autoría soportada estadística o computacionalmente es que, al medir algunas características textuales, podemos distinguir los textos escritos por diferentes autores. La mayoría de las investigaciones sobre atribución de autoría se ha enfocado al estudio estilométrico, relegando el apartado sintáctico. Este trabajo de investigación introduce una técnica basada en la gramática de dependencias: las características son extraídas usando un parser sintáctico y son usadas para entrenar un clasificador para identificar a los autores. Se propone el concepto de n-grama sintáctico (sn-grama) el cual difiere de los n-gramas tradicionales en la manera en que los elementos se consideran vecinos. Los sn-gramas pueden aplicarse en cualquier tarea del Procesamiento del Lenguaje Natural (PLN) donde se usen los n-gramas tradicionales. En esta ponencia se explicará cómo fueron aplicados los sn-gramas a la atribución de autoría apoyándose de los clasificadores SVM, NB y J48 y los resultados obtenidos comparándolos contra un baseline tradicional de n-gramas de palabras, etiquetas Part-Of-Speech y de caracteres.