Training Generative Models with Limited Data

[Ref: Figure 7 from StyleGAN-ADA]

이 연구에서는 다양한 생성 모델 및 최적화 알고리즘을 비교하고 분석하는 실험을 수행합니다. 이를 통해, 제한된 양의 데이터를 사용하여 모델을 학습시키는데 있어 효과적인 방법을 발견하고자 합니다. 이러한 연구활동을 통해, 생성 모델 학습에 대한 이해를 높이고, 제한된 데이터를 다루는 다양한 방법을 탐구하고, 이를 통해 실제 문제를 해결하는 데 도움이 되는 모델을 개발하고자 합니다. 

이 연구는 생성 모델의 일반화 성능을 향상시키기 위해 다양한 기술적 접근 방식을 사용합니다. 이러한 접근 방식은 데이터 증강(Data Augmentation), 사전학습(Pre-training), 전이학습(Transfer Learning) 등이 있습니다. 또한, 이 연구는 생성 모델의 학습을 보다 효과적으로 하기 위해 기존의 최적화 알고리즘을 수정하거나 새로운 최적화 알고리즘을 개발합니다.

전자 공학과, 컴퓨터 공학과, 산업공학과, 수학과 학생들을 두루 선호하며 가능하다면 3학년 이상의 학생을 선호합니다. 논문을 읽고 발표할 기본적인 영어 실력이 있고 파이썬 프로그래밍을 할 수 있어야 합니다. 그렇지 않으면 프로젝트 진행이 어렵습니다. 딥러닝 프로젝트를 해봤거나 논문 등을 읽어본 학생들이면 좋습니다. 만약 생성 모델을 다뤄본 적이 있으면 더할나위 없이 좋습니다.

In this research, we will perform experiments to compare and analyze various generative models and optimization algorithms. Through these research activities, we aim to discover effective ways to train models with limited data. Through this research, we hope to increase our understanding of generative model training, explore various methods for dealing with limited data, and develop models that help solve real-world problems.

This research uses various technical approaches to improve the generalization performance of generative models. These approaches include data augmentation, pre-training, and transfer learning. In addition, this research modifies existing optimization algorithms or develops new optimization algorithms to more effectively train generative models.

This project is suitable for (but not limited to) students majoring in electrical engineering, computer science, industrial engineering, and mathematics. Ideally, students in their third year or higher are preferred. Basic English skills for reading and presenting papers and proficiency in Python programming are required. Otherwise, it will be very difficult to proceed with the project. Students who have experience with deep learning projects or have read papers on the topic are preferred. If they have experience working with generative models, it would be even better.

Supervisors

(If you are interested, please contact the supervisor below)


Feel like you want to explore other projects? Go and look for the list here: Student (Intern) projects