INB COMPUTERS "Honestidad, calidad y profesionalismo"
POSTED ON: 17 agosto, 2024. ACTUALIZADO: 04 enero, 2025.
Iluntración de transfer learning TL
Transfer learning - TL esta esuna técnica de Machine Learning ML en la que los conocimientos aprendidos en una tarea se reutilizan para mejorar el rendimiento en otra tarea relacionada.
WEB: https://pytorch.org/
PLATAFORMA: Online
LICENCIA: BSD-3
PyTorch: Potenciando el Aprendizaje Profundo. PyTorch es una biblioteca de aprendizaje automático de código abierto desarrollada por Meta AI, diseñada para aplicaciones como visión por computadora y procesamiento de lenguaje natural. Desde su lanzamiento en 2016, se ha consolidado como una de las herramientas más populares en el ámbito del aprendizaje profundo, ofreciendo una interfaz en Python y soporte en C++.
Características Destacadas:
Computación de Tensores: Similar a NumPy, pero con aceleración mediante unidades de procesamiento gráfico (GPU), lo que permite operaciones eficientes en matrices multidimensionales.
Redes Neuronales Profundas: Proporciona un sistema de diferenciación automática basado en cintas, facilitando la construcción y entrenamiento de modelos complejos.
Ecosistema Robusto: Incluye herramientas y bibliotecas que amplían sus capacidades en áreas como visión por computadora y procesamiento de lenguaje natural.
Compatibilidad con CUDA: Soporta diversas versiones de CUDA, permitiendo la ejecución en múltiples plataformas de hardware.
Historia y Desarrollo:
Inicialmente desarrollado por Meta AI, PyTorch se fusionó con Caffe2 en 2018 para unificar esfuerzos en el desarrollo de herramientas de aprendizaje profundo. En 2022, la gestión de PyTorch pasó a la Fundación PyTorch, una subsidiaria de la Fundación Linux, asegurando su desarrollo continuo y neutralidad en la comunidad de código abierto.
Aplicaciones y Uso:
PyTorch es utilizado por empresas y organizaciones líderes en tecnología, incluyendo Tesla para su sistema Autopilot y Uber en su lenguaje de programación probabilística Pyro. Además, es la base de bibliotecas como Transformers de Hugging Face y PyTorch Lightning, que facilitan la implementación de modelos avanzados de aprendizaje profundo.
Recursos Adicionales:
Tutoriales y Documentación: Ofrece una amplia gama de tutoriales y documentación para usuarios de todos los niveles, desde principiantes hasta expertos.
Comunidad Activa: Cuenta con foros y canales de comunicación donde los desarrolladores pueden compartir conocimientos y resolver dudas.
PyTorch continúa evolucionando, incorporando nuevas funcionalidades y mejoras de rendimiento, consolidándose como una herramienta esencial para investigadores y profesionales en el campo del aprendizaje profundo.
Modelo de Lenguaje Grande (Large lenguaje Model - LLM)
Ejemplos:
ChatGPT de OpenAI
Copilot de Microsoft
Claude de Anthropic
Gemini by Google
Ollama by Meta
Keras by Google
Muchos más..............................................................................................
WEB: https://ollama.com/
PLATAFORMA: Online
LICENCIA: Información no especificada
DESCARGA: https://ollama.com/download
Ollama es una plataforma diseñada para facilitar la implementación y personalización de modelos de lenguaje de gran escala (LLMs). Ofrece soporte para modelos como Llama 3.2, Phi 3, Mistral y Gemma 2, permitiendo a los usuarios ejecutar y adaptar estos modelos según sus necesidades específicas.
Características Destacadas:
Compatibilidad Multiplataforma: Disponible para macOS, Linux y Windows, Ollama proporciona una experiencia consistente en diferentes sistemas operativos.
Soporte para Docker: Ollama está disponible como una imagen oficial de Docker, simplificando su implementación en entornos de contenedores.
Integración de Herramientas: La plataforma admite la llamada a herramientas con modelos populares como Llama 3.1, permitiendo a los modelos interactuar con el mundo exterior y realizar tareas más complejas.
Actualizaciones Constantes: Ollama mantiene un blog actualizado donde se anuncian nuevas funcionalidades y mejoras, como el soporte para modelos de visión y compatibilidad con OpenAI.
Aplicaciones y Uso:
Ollama es ideal para desarrolladores e investigadores que buscan una plataforma flexible para trabajar con modelos de lenguaje avanzados. Su capacidad para ejecutar y personalizar modelos localmente, sin depender de servicios externos, la convierte en una herramienta valiosa para proyectos que requieren control total sobre los datos y el entorno de ejecución.
Recursos Adicionales:
Documentación y Tutoriales: Ollama ofrece documentación detallada y ejemplos para ayudar a los usuarios a comenzar y aprovechar al máximo la plataforma.
Comunidad Activa: A través de su servidor de Discord y repositorio en GitHub, Ollama fomenta una comunidad donde los usuarios pueden compartir experiencias, resolver dudas y contribuir al desarrollo continuo de la plataforma.
Con su enfoque en la facilidad de uso y la flexibilidad, Ollama se posiciona como una solución robusta para quienes buscan implementar y personalizar modelos de lenguaje de gran escala en diversos entornos.
PLATAFORMA: Windows 11
Pasos
Installación de Ollama https://ollama.com/download
Instalación del modelo Llama 3.1 (CMD)
Instalación Docker con virtualizacion activada (Docker desktop)
Instalación de OpenWebUI (CMD)
(Large Action Model - LAM)
LAM es un nuevo tipo de modelo fundacional que entiende las intenciones humanas en los ordenadores. Diciendolo en lengiaje sencillo un LAM OS entiende lo que dices y realiza las cosas.
Ejemplos de uso:
Rabbit OS https://www.rabbit.tech/rabbit-os
Convolutional neural network - CNN
Procesamiento del lenguaje natural (natural language processing - NLP)
Los transformers son un tipo de red neuronal artificial (ANN)
recurrent neural architectures - RNNs
Long short-term memory - LSTM
Reinforcement learning - RL
Gemelos digitales o digital twin es una representación virtual de un objeto o sistema diseñado para reflejar con precisión un objeto físico. Abarca el ciclo de vida del objeto, se actualiza a partir de datos en tiempo real y emplea simulación, machine learning y razonamiento para ayudar a tomar decisiones.
Gemelos de componentes o gemelos de piezas
Los componentes gemelos son la unidad básica de un gemelo digital, el ejemplo más pequeño de un componente funcional. Las piezas gemelas son más o menos lo mismo, pero se refieren a componentes un poco menos importantes.
Gemelos de activos
Cuando dos o más componentes trabajan juntos, forman lo que se conoce como un activo. Los gemelos de activos le permiten estudiar la interacción de esos componentes, creando una gran cantidad de datos de rendimiento que pueden procesarse y luego convertirse en insights aplicables en la práctica.
Unidades o sistemas gemelos
El siguiente nivel de ampliación implica sistemas o unidades gemelas, que le permiten ver cómo los diferentes activos se unen para formar un sistema funcional completo. Los sistemas gemelos proporcionan visibilidad con respecto a la interacción de los activos y pueden sugerir mejoras de rendimiento.
Gemelos de proceso
Los gemelos de procesos, el nivel de ampliación macro, revelan cómo los sistemas trabajan juntos para crear unas instalaciones de producción completa. ¿Todos esos sistemas están sincronizados para operar con la máxima eficiencia o los retrasos en un sistema afectarán a otros? Los gemelos de procesos pueden ayudar a determinar los esquemas de tiempo precisos que, en última instancia, influyen en la eficacia general.
Principalmente existen cuatro tipos de gemelos digitales Según el nivel de ampliación del producto. esto se divide de acuerdo a su área de aplicación y aunque se clasifican por separado es común que coexistan diferentes tipos de genelos digitales dentro de un sistema o proceso.
(). [Imagen]. https://www.iberdrola.com/innovacion/gemelos-digitales
Más información:
IBM (s.f.). ¿Qué es un digital twin?. https://www.ibm.com/mx-es/topics/what-is-a-digital-twinEn Construcción...