Enseñando a las máquinas
Claudia inició con un repaso histórico, destacando "The Writer" (1770), un autómata diseñado por Pierre Jaquet-Droz, como uno de los primeros ejemplos de automatización lingüística, considerado precursor de los robots modernos. A partir de ahí, explicó cómo el PLN ha evolucionado en cuatro etapas principales:
1950-1990: Sistemas basados en reglas
Durante esta etapa inicial, los sistemas dependían de reglas explícitas para procesar el lenguaje. Un ejemplo destacado fue Eliza, un programa que simulaba a un psicoanalista utilizando respuestas predefinidas según patrones. Sin embargo, estos sistemas eran limitados, carecían de comprensión contextual y no podían generar interacciones profundas.
1990-2010: Sistemas probabilísticos
El uso de estadística permitió que las máquinas predijeran respuestas comunes basadas en patrones del lenguaje humano. Por ejemplo, ante el input "Me gustas", el sistema podría responder "mucho", basándose en probabilidades de uso. Aunque más efectivos, estos sistemas seguían siendo básicos en cuanto a comprensión.
2010-hoy: Aprendizaje profundo y redes neuronales
El aprendizaje profundo marcó un avance revolucionario. Las redes neuronales permitieron a las máquinas interpretar el lenguaje humano de manera más precisa, entendiendo el contexto. Claudia ilustró este avance con un ejemplo: ante la pregunta "¿Cómo se llama la mujer de Trump?" seguida de "¿Cuántos años tiene?", el sistema deduce que la segunda pregunta se refiere a la esposa, no al expresidente.
2020: Boom de la IA generativa
La última etapa está marcada por herramientas como ChatGPT, Whisper y ElevenLabs, que combinan generación y comprensión del lenguaje natural. Estas tecnologías han revolucionado el PLN al ofrecer diálogos más fluidos y naturales.
Claudia destacó dos capacidades clave:
Comprensión del lenguaje natural (NLU): interpretar el significado de las entradas.
Generación del lenguaje natural (NLG): producir respuestas adecuadas.
El desarrollo de estos sistemas utiliza machine learning y técnicas avanzadas como el fine-tuning, esto último es el proceso de ajustar un modelo pre-entrenado para una tarea específica, mejorando su rendimiento en aplicaciones concretas
Claudia concluyó diferenciando ambos conceptos: según Llisterri (2000), la lingüística computacional tiene un enfoque teórico que abarca el lenguaje y el habla, mientras que el PLN se centra en aplicaciones prácticas para resolver problemas específicos del lenguaje humano.