Se realizaron clasificaciones con los siguientes algoritmos, a continuación se describirán los resultados de cada uno, haciendo principalmente énfasis en las variables de rendimiento. Todo este proceso se realizo en WEKA versión 3.8.6.
El articulo en el que nos basamos para obtener la base de datos y los resultados expuestos en esta pagina es: [1] Enrique Garcia-Ceja, Michael Riegler, Petter Jakobsen, Jim Tørresen, Tine Nordgreen, Ketil J. Oedegaard, and Ole Bernt Fasmer. 2018. Depresjon: A Motor Activity Database of Depression Episodes in Unipolar and Bipolar Patients. In Proceedings of 9th ACM Multimedia Systems Conference, Amsterdam, Netherlands, June 12–15, 2018 (MMSys’18), 6 pages.
Para mayor información de cada algoritmo se citarán secciones del libro: Witten, I. H., Frank, E., & Hall, M. A. (2011). Data Mining: Practical Machine Learning Tools and Techniques. Morgan Kaufmann.
Resultados obtenidos:
Resultados del articulo [1]
Este es un método de aprendizaje supervisado, donde su idea fundamental es clasificar un punto de datos basado en la mayoría de los puntos de datos cercanos a él en el espacio de características. Para mayor información en el libro mencionado al inicio en el capítulo 4 Algorithms: The Basic Methods sección 4.7.
Resultados obtenidos:
Resultados del articulo [1]
Este es un método de aprendizaje supervisado utilizado tanto para problemas de clasificación como de regresión. SVMs, especialmente en su forma lineal, son conocidos por su capacidad para encontrar límites de decisión óptimos que separan clases en un espacio dimensional. Para mayor información en el libro mencionado al inicio en el capítulo 6 Implementations: Real Machine Learning Schemes
Resultados obtenidos:
Resultados del articulo [1]
Este es una extensión del algoritmo SVM que permite manejar problemas de clasificación no lineales. En contraste con el SVM lineal que utiliza un hiperplano para separar las clases, el SVM con función de base radial utiliza una función de kernel RBF para realizar una transformación no lineal de los datos a un espacio dimensional superior donde las clases pueden ser separadas de manera más efectiva. Para mayor información en el libro mencionado al inicio en el capítulo 6 Implementations: Real Machine Learning Schemes sección 6.4.
Resultados obtenidos:
Resultados del articulo [1]
Estos son modelos predictivos que se utilizan en el aprendizaje automático y la minería de datos para predecir la clase o el valor de una variable objetivo basándose en reglas de decisión simples inferidas de las características de los datos. Para mayor información en el libro mencionado al inicio en el capítulo 6 Implementations: Real Machine Learning Schemes sección 6.1.
Resultados obtenidos:
Resultados del articulo [1]
Este es un algoritmo de aprendizaje automático que se basa en la construcción de múltiples árboles de decisión durante el entrenamiento y la combinación de sus predicciones para obtener una predicción final más robusta y precisa. Es una técnica de conjunto que combina la idea de bagging con la aleatorización de características para mejorar la capacidad de generalización y reducir el sobreajuste. Para mayor información en el libro mencionado al inicio en el capítulo 8 Ensemble Learning sección 8.3.
Resultados obtenidos:
Resultados del articulo [1]
Este es un modelo computacional inspirado en la estructura y funcionamiento del cerebro humano. Está compuesta por unidades de procesamiento llamadas neuronas que están organizadas en capas y conectadas entre sí mediante conexiones ponderadas. Para mayor información en el libro mencionado al inicio en el capítulo 11 The Explorer sección 11.4.
Resultados obtenidos:
Resultados del articulo [1]
Este es un algoritmo de conjunto utilizado principalmente en problemas de clasificación. Su objetivo es combinar múltiples clasificadores débiles para construir un clasificador fuerte. AdaBoost se destaca por su capacidad para mejorar el rendimiento de los modelos débiles, centrándose en los ejemplos que son más difíciles de clasificar. Para mayor información en el libro mencionado al inicio en el capítulo 8 Ensemble Learning sección 8.4.
Resultados obtenidos:
Resultados del articulo [1]
Este es un algoritmo de clasificación probabilístico basado en el teorema de Bayes, que asume independencia condicional entre las características. A pesar de su simplicidad, Naive Bayes es ampliamente utilizado en problemas de clasificación debido a su eficiencia computacional y su buen rendimiento en una variedad de escenarios. Para mayor información en el libro mencionado al inicio en el capítulo 17 Tutorial Exercises for the Weka Explorer sección 17.3.
Resultados obtenidos:
Resultados del articulo [1]
Este es un algoritmo de aprendizaje supervisado utilizado para problemas de clasificación. Es una extensión del análisis discriminante lineal (LDA) y se diferencia de éste en que permite que las covarianzas de las clases sean distintas. Para mayor información en el libro mencionado al inicio en el capítulo 5 Credibility: Evaluating What’s Been Learned sección 5.6.
Resultados obtenidos:
Resultados del articulo [1]
Este es un algoritmo de clasificación muy simple utilizado como línea de base para comparar con otros algoritmos más sofisticados en problemas de aprendizaje automático. Aunque es extremadamente básico, proporciona una referencia útil para evaluar el rendimiento de otros algoritmos. Para mayor información en el libro mencionado al inicio en el capítulo 11 The Explorer sección 11.1.