Resumen: En los últimos años las medidas provenientes de teoría de la información como las entropías, complejidades y divergencias se han transformado en una herramienta muy útil a la hora de analizar señales electrofisiológicas de diferentes naturaleza (EEG, ECG, EoCG, etc). Estas medias han sido ampliamente utilizadas en el estudio de patologías como Arritmia, Epilepsia, Alzheimer o Esquizofrenia, como también para el estudio de estados de conciencia (sueño, coma, alucinaciones o anestesia) y estudios comportamentales. En esta charla abordaremos algunas de estas medias como la Entropía de Shannon, Complejidad estadística y Complejidad de Lempel Ziv entre otras. Daremos una introducción a los conceptos de cada una de estas medidas y su aplicabilidad en diferentes áreas de las neurociencias. Además introduciremos los conceptos de vectores de permutación con cuantificadores de las señales a analizar. La charla tratará de ser lo mas autocontenida posible por lo que no se requerirá conocimientos previos.