Large-scale Machine Learning Systems Lab.
@ Inha University
대형 머신러닝 시스템 연구실
대형 머신러닝 시스템 연구실은 대량의 데이터를 효과적으로 분석 및 활용할 수 있는 머신러닝 시스템을 연구합니다. 특히 우리는 수치 최적화 효율성과 하드웨어 자원의 활용도를 동시에 극대화할 수 있는 실용적인 머신러닝 알고리즘을 집중적으로 연구합니다. 현재 빅데이터 (Big Data) 및 사물인터넷 (IoT)과 같이 대량의 데이터를 활용하는 기술들이 주목받고 있습니다. 우리는 이같은 대규모 데이터를 효과적으로 분석할 수 있는 병렬 머신러닝 알고리즘을 디자인하고 이를 실제로 구현하며 그 효용성을 검증합니다. 뿐만 아니라, 우리는 이러한 대형 머신러닝 시스템을 다양한 응용분야에 적용해 실생활의 중요한 문제들을 해결합니다. 우리 연구실에서 수행하는 연구는 크게 세가지 주제로 요약할 수 있습니다: 1) High-Performance Computing (HPC) 시스템을 활용한 대형 딥러닝; 2) 다양한 이종(heterogeneous) 엣지 디바이스를 활용한 대형 연합학습(Federated Learning); 3) 과학응용분야 문제를 해결하기 위한 대형 딥러닝 솔루션 연구.
The Large-scale Machine Learning Systems lab. studies how to design and implement scalable machine learning algorithms. Our research focuses on how to better understand the internal data of machine learning models and utilize such understandings to design efficient and scalable machine learning algorithms. In addition, our research goal is to make the algorithms more practical such that they fully utilize the available system resources such as network bandwidth, computing power, and memory space. Based on scalable machine learning algorithms, we can enjoy unprecedented opportunities of exploring large-scale real-world problems! Our current works can be summarized as three topics; 1) Communication-efficient distributed machine learning on High-Performance Computing platforms; 2) Federated Learning on heterogeneous edge devices; 3) Large-scale applied deep learning for scientific applications.
Large-Scale Federated Learning on Heterogeneous Systems
(이종 시스템 기반 대형 연합 학습)
휴대폰과 같은 엣지 디바이스들로 구성된 현실적인 분산 학습 환경에서 효과적으로 사용할 수 있는 연합 학습 알고리즘 연구.
수치최적화 효율성과 하드웨어 자원 효율성을 동시에 고려한 실용적인 분산 학습법 연구.
부분 모델 훈련, 자동 모델 동기화 주기조절 등과 같은 새로운 방법론을 제시.
We tackle large-scale federated learning problems considering realistic distributed and heterogeneous learning environments such as a variety of mobile phones.
Our research aims to design distributed learning strategies that jointly consider numerical optimization efficiency and hardware resource utilization.
We break a convention of homogeneous local models across clients and pursue novel and promising solutions such as partial model training for federated learning.
System-Aware Distributed Optimization Algorithms for Efficient Deep Learning
(효율적인 딥러닝을 위한 시스템-인지 분산 최적화)
대량의 정보를 효율적으로 분석하기 위한 인공신경망 병렬 훈련 알고리즘 연구.
특히, 인공신경망 병렬 훈련 시 프로세스 사이의 통신 비용을 최소화할 수 있는 다양한 알고리즘 연구 및 개발.
인공신경망이 가지는 다양한 내부 데이터를 분석하고, 그 특성을 기반으로 효과적인 병렬 훈련법 디자인.
We study parallel neural network training algorithms for large-scale data analysis.
Especially, we focus on how to reduce the communication cost in data-parallel training.
Our research aims to better understand the internal mechanisms of neural networks and design efficient distributed learning strategies based on such understandings.
Applied Machine Learning / Deep Learning for Electronic Materials Design and Analysis
(머신러닝 기반 반도체 및 전자소재 분석)
다양한 반도체 소자들을 분석 및 디자인하는데 사용될 수 있는 머신러닝 / 딥러닝 기술을 개발.
타분야(물리, 재료과학 등) 연구자들과의 협동연구를 통해 머신러닝 알고리즘을 실제 과학 응용분야 문제에 적용하여 데이터를 분석하고 새로운 insight을 도출.
We develop machine learning / deep learning solutions for analyzing and designing new complex oxide heterostructures.
By collaborating with domain scientists such as Physicists and Material Scientists, we develop machine learning software solutions to critical domain problems and extract insights from scientific big data.
Projects (참여과제) & Sponsors
한국연구재단 개인기초연구 (생애첫연구, 2023):
시스템 인지 전이학습을 통한 초대형 이종 연합학습
(System-Aware Transfer Learning for Ultra Large-Scale Federated Learning on Heterogeneous Systems)
인공지능융합혁신인재양성 (인공지능융합연구대학원: https://aix.inha.ac.kr/)
이종 GPU 클라우드 시스템을 위한 비동기식 병렬 신경망 훈련기술 연구 (산학협력과제 with Mondria AI: https://mondrian.ai/)
소프트웨어중심대학사업 (INSA 교수단: https://swuniv.inha.ac.kr/swuniv/index.do)
HI-Tech 1410, Inha University, 100 Inha-ro, Michuhol-gu, Incheon 22212, South Korea
© Copyright 2022 LMLS Lab. @ Inha University | All rights reserved