Fundamentos de Aprendizaje Profundo
Instructor: Dr.Ing Felipe Meza-Obando
Instructor: Dr.Ing Felipe Meza-Obando
Este curso ofrece una introducción integral al Aprendizaje Profundo (Deep Learning), abordando los fundamentos teóricos y prácticos de las redes neuronales artificiales modernas. Los estudiantes aprenderán a construir e interpretar modelos como perceptrones multicapa (MLP), redes convolucionales (CNN), redes recurrentes (RNN) y redes generativas adversarias (GAN), utilizando herramientas como TensorFlow y Keras, dentro de flujos de trabajo reales.
Al finalizar el curso, el estudiante será capaz de:
Comprender los principios fundamentales del aprendizaje profundo y las arquitecturas neuronales más comunes.
Implementar modelos de redes neuronales utilizando Keras/TensorFlow.
Evaluar el desempeño de los modelos y aplicar estrategias de regularización.
Aplicar arquitecturas específicas como CNN, RNN y GAN a problemas concretos.
Reconocer oportunidades, limitaciones y desafíos del aprendizaje profundo actual.
1. Introducción al Aprendizaje Profundo
Evolución desde el ML clásico, estructura de una red neuronal artificial, perceptrón, activaciones, flujo hacia adelante y función de pérdida.
2. Perceptrón Multicapa (MLP) y entrenamiento con backpropagation
Arquitectura MLP, capas ocultas, funciones de activación, entrenamiento con descenso de gradiente, overfitting y regularización (dropout, batch norm).
3. Implementación de MLP con Keras/TensorFlow
Introducción a Keras, definición de modelos secuenciales, compilación, entrenamiento y evaluación. Aplicaciones en clasificación y regresión.
4. Redes Convolucionales (CNN)
Operaciones de convolución, pooling, padding, extracción de características jerárquicas. Aplicaciones a visión por computadora.
5. Redes Recurrentes (RNN y variantes)
Modelos para datos secuenciales, RNN básicas, problemas de memoria, LSTM y GRU. Aplicaciones en series de tiempo y procesamiento de lenguaje natural.
6. Redes Generativas Adversarias (GAN)
Arquitectura generador vs discriminador, dinámica de entrenamiento, ejemplos de generación de imágenes sintéticas y deepfakes.
7. Tópicos actuales en Deep Learning
Transfer learning, transformers (introducción conceptual), aprendizaje auto-supervisado, fundamentos de fine-tuning, ética y riesgos.
8. Proyecto final y presentación
Desarrollo de un proyecto aplicado con una arquitectura vista en clase. Evaluación técnica, presentación y discusión crítica.
Clases expositivas con demostraciones prácticas.
Ejercicios con notebooks interactivos en Python usando TensorFlow/Keras.
Uso de datasets abiertos (MNIST, CIFAR-10, IMDB, etc.).
Proyecto final de aplicación y presentación.
Chollet, F. (2021). Deep Learning with Python (2nd ed.).
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning.
Documentación oficial de:
Conocimientos sólidos de Python y bibliotecas como NumPy y Pandas.
Familiaridad con Machine Learning básico y scikit-learn.
Bases de cálculo y álgebra lineal (derivadas, matrices, producto punto).
Deseable: experiencia previa con Jupyter Notebooks y Google Colab.