We announce this program in Korean only, and the contents are not translated.

### CASYS연구실에서 2025년 여름 인턴 학생을 모집합니다.


**진행방식**

인턴 프로젝트 박사/석사 학생의 맨토링으로 진행되며 중간중간 교수님과 2주 혹은 3주에 한번 개인 미팅을 하는 식으로 진행됩니다.

인턴 프로젝트는 저희 대학원생의 연구에서 필요한 내용으로 만들어집니다. 특정 부분에 대한 구현이나 비교 대상이 되는 시스템의 실험등이 대표적인 예 입니다.

CASYS 연구실에서 인턴 학생들을 위한 자리를 마련하였습니다. 인턴 수에 따라 변동이 될 수 있으나 연구실에 출퇴근을 하면 인턴 프로젝트를 진행하는 것을 권장합니다.

여름학기 인턴으로 선발된 학생에게는 여름 방학 두달 동안 매월 50만원을 지급합니다.

공식 기간은 여름방학 2달입니다. 하지만 시스템 연구의 특성상 방학이 시작하기 전에 저희 연구실에서 개별 연구 방식으로 미리 준비를 하고 방학이 시작되면 본격적으로 시작하는 방식을 권장합니다.

추가로 봄학기, 가을학기 인턴은 직전 겨울학기, 여름학기 인턴분들에게만 제공할 계획입니다. 따라서 저희 연구실에 관심있으시면 이번 기회에 꼭 지원해 주시기 바랍니다.


 **자격요건**

엄격한 자격사항은 아니나 CS330 운영체제를 수강한 학생을 선호합니다.


 **지원방법**

(1) 희망 연구주제 (아래 연구 주제 공지) 1순위와 2순위 (2) 성적표 (3)간단한 CV

[2025 여름인턴] 태그를 제목에 붙여서 email로 보내주세요. email 주소: yjkwon@casys.kaist.ac.kr


**연구 주제**

올해는 다음과 같은 8가지 주제로 인턴을 모집합니다.


1. 에너지 효율적인 거대 언어 모델 (LLM) Inference 시스템

2. ZNS SSD및 FDP SSD를 활용한 파일 및 스토리지 시스템 연구

3. Tiered memory system을 통한 메모리 최적화 연구

4. 새로운 운영체제 프로젝트 QA

5. 차세대 하드웨어 TEE를 이용한 유저 기밀정보 보호 연구

6. 상태 머신을 활용한 하이퍼바이저 퍼징 연구

7. SmartNIC을 활용한 커널 기능 오프로딩에 대한 연구

8. eBPF를 활용한 메모리 시스템 가속화 연구


 연구 주제들에 대한 구체적인 설명은 다음과 같습니다.


1. 에너지 효율적인 거대 언어 모델 (LLM) Inference 시스템

ChatGPT를 비롯한 거대 언어 모델(LLM)의 성공적인 정착으로 LLM 서빙 수요가 급증하고 있습니다. 이러한 서비스를 운영하려면 GPU 기반의 고에너지 데이터센터가 필수적이며, 현 추세가 지속될 경우 2030년대에는 전 세계 에너지 사용량의 10 ~ 20 %가 데이터센터에서 소비될 것으로 전망됩니다. 이를 해결하기 위해, 저희는 에너지 효율적인 LLM Inference 시스템을 설계·구현하고 있습니다.

에너지 효율성을 극대화하려면 다음 두 가지 요소를 면밀히 분석해야 합니다. (1) Workload별 GPU 전력 사용 패턴과 하드웨어 전력 제어 기능. DVFS(Dynamic Voltage and Frequency Scaling)등을 활용해 GPU가 소비 전력을 어떻게 조절하는지 파악합니다. (2) LLM의 연산 구조 및 메모리 사용 특성. 요청(Request)에 따라 변하는 연산량·메모리 요구량을 지속적으로 모니터링합니다. 모델과 하드웨어가 다양한 부하 상황에서 어떻게 반응하는지 이해한 뒤, DVFS와 연산 방식을 포함한 스케줄러를 설계하여 SLO(Service Level Objective)를 만족하면서도 최소 전력을 사용하게끔 조율하는 것이 목표입니다.

최신 LLM 구조, 데이터센터급 GPU 특성, 그리고 이를 조율하는 연구에 관심이 있는 학생을 찾고 있습니다.


2. ZNS SSD및 FDP SSD를 활용한 파일 및 스토리지 시스템 연구

최신 스토리지 기술의 동향은 ZNS SSD, FDP SSD, SmartSSD, CMM-H 등 새로운 기능과 특성을 지닌 디바이스들을 출시하고 있습니다. 그러나 이러한 기능을 최대한으로 활용할 수 있는 시스템 소프트웨어 기술은 여전히 부족한 실정입니다. 저희 연구팀은 이 최신 기술들을 스토리지 스택 전반에 걸쳐 효과적으로 활용할 수 있는 시스템 연구를 진행하고 있습니다. 우선, ZNS SSD와 FDP SSD는 호스트에서 직접 디스크 작업을 관리함으로써 성능을 향상시키고 디스크 수명을 연장할 수 있습니다. 저희는 ZNS SSD와 FDP SSD를 지원하는 클라우드 및 파일 시스템에 대한 연구를 진행 중입니다. 다음으로는 SmartSSD를 활용한 시스템 연구입니다. 최신 파일 시스템은 확장성, 성능, 무결성을 보장하기 위해 다양한 기능을 추가하고 있지만, 이러한 기능들은 높은 CPU 자원을 필요로 합니다. 저희는 SmartSSD 오프로드 기능을 활용한 파일 시스템 설계를 통해 CPU 사용량 문제를 해결하는 연구를 진행하고 있습니다.

마지막으로, CMM-H는 CXL 인터페이스와  persistent 모드를 지원하는 SSD로, 저희 연구팀은 CMM-H의 메모리 인터페이스와 높은 대역폭을 최대한 활용할 수 있는 시스템을 설계 중입니다. 저널링 메커니즘을 수정하거나 디스크 레이아웃을 새롭게 설계하는 방법으로 전반적인 시스템의 성능을 높이는 연구를 진행하고 있습니다.


3. Tiered memory system을 통한 메모리 최적화 연구

최근 AI, ML 분야가 각광받고 있고 대용량 메모리를 사용하는 워크로드 수요가 증가하고 있습니다. 메모리 용량이 워크로드가 사용하는 메모리보다 적은 경우 리눅스에서는 디스크로 스왑이 발생합니다. 디스크에 접근하는 경우 메모리보다 약 10000배 정도 접근 시간이 느려지며 이로 인해 워크로드의 성능이 저하됩니다. 이러한 문제를 해결하기 위해 제안된 시스템이 tiered memory system 입니다. Tiered memory system은 기존의 DRAM 외에 접근 시간이 느리고 용량이 큰 2nd tier 메모리를 추가로 제공하여 대용량 메모리를 확보하는 구조입니다. 이전 연구에서는 주로 NVM(Non-volatile memory)을 2nd tier 메모리로 활용해왔으며, 최근들어 CXL memory 를 활용한 연구가 많은 관심을 받고 있습니다. 2nd tier 메모리는 DRAM 보다 느린 접근 시간을 가지므로 자주 사용되는 데이터는 DRAM, 그렇지 않은 데이터는 2nd tier 메모리에 위치시켜서 tiered memory system 의 성능을 향상시킬 수 있습니다. 저희는 어떤 방식으로 데이터 사용을 추적할 것인지, 어떻게 더 효율적인 데이터 이동 방식을 구현할 것 인지에 대해 연구하고 있습니다. 또한, 여러 개의 프로세스 혹은 호스트가 동시에 메모리를 사용하는 상황에서 한정된 자원인 1st tier 메모리를 조정 및 분배하여 시스템 전체적인 성능을 향상시키는 연구를 진행 중입니다.


4. 새로운 운영체제 프로젝트 QA

현재 pintos project는 수업내용과 프로젝트 내용이 괴리되어 있다라는 문제점이 있습니다.

이를 위해 새로운 운영체제 프로젝트를 작성하였고, 해당 프로젝트에 대한 검수를 위해 인턴을 모집하고자 합니다. 인턴은 인턴기한 동안 다음과 같은 일을 하게 될 예정입니다.

* 새로운 운영체제 프로젝트를 직접 구현하고, 프로젝트의 난이도에 관련된 의견을 작성합니다.

* 수업을 듣는 수강생들을 위해 추가적인 테스트케이스들을 작성합니다.

인턴은 OS수업을 수강하였고 B+이상의 학점을 받았어야하며, 다음과 같은 조건에 맞는 학생을 각각 1명씩 모집할 예정입니다.

* Rust 언어를 사용하는 수업을 수강하였으며, 해당 수업에서 B+이상의 학점을 받은 학생.

* Rust 언어를 전혀 사용해본 적 없는 학생.


5. 차세대 하드웨어 TEE를 이용한 유저 기밀정보 보호 연구

Confidential Computing 에 대한 연구입니다. 클라우드에서 실행되는 여러 애플리케이션(e.g., ChatGPT)은 유저의 개인정보를 처리하고 그 결과를 반환합니다. 네트워크를 통한 정보 유출은 암호화를 통해 보호할 수 있지만, 애플리케이션이 실행되는 OS나 Hypervisor 같은 플랫폼이 애플리케이션 메모리에 직접 접근하여 정보를 획득할 수 있기 때문에 여전히 위험에 노출될 수 있습니다. 따라서 최근 Intel, AMD, ARM과 같은 CPU 벤더들은 하드웨어 TEE를 통해 플랫폼으로부터 애플리케이션 메모리를 분리하여 악의적인 플랫폼으로부터 애플리케이션을 보호하는 솔루션을 제공하고 있습니다. Enclave 타입의 하드웨어 TEE는 OS가 애플리케이션 메모리에 접근하는 것을 허용하지 않으며, VM 기반 TEE는 Hypervisor가 게스트 VM 메모리에 접근하는 것을 차단합니다. 그러나 단순히 하드웨어 TEE를 사용하는 것은 플랫폼으로부터 애플리케이션의 기밀 정보만 보호할 수 있습니다. 애플리케이션이 유저의 비밀 정보를 몰래 유출할 수 있기 때문에, 민감한 정보를 안전하게 처리해야 하는 유저는 신뢰할 수 있는 애플리케이션만을 사용할 수 있습니다. 저희는 이런 제약 사항을 벗어나기 위해, 신뢰할 수 없는 애플리케이션 환경에서도 유저 정보의 유출을 방지하기 위한 연구를 진행하고 있으며, VM 기반 TEE를 이용하여 이전 연구들이 직면한 성능, 안정성, 호환성 간의 트레이드오프를 효과적으로 조율하는 것을 목표로 하고 있습니다.


6. 상태 머신을 활용한 하이퍼바이저 퍼징 연구

시스템 분야의 도메인 지식을 활용하여 기존 소프트웨어 테스팅 기법의 한계를 극복하고 효과적인 시스템 소프트웨어 테스팅을 수행하는 것을 목표로 하는 연구입니다. 보안 측면에서, OS, 하이퍼바이저, 컨테이너와 같은 시스템 소프트웨어에 존재하는 취약점은 일반 소프트웨어에서의 취약점보다 더 심각한 결과를 불러올 수 있습니다. 이를 효과적으로 탐색하기 위하여 최근 많은 연구에서 퍼징 기법을 도입하고 있습니다. 저희 연구실에서는 현재 하이퍼바이저를 타겟으로 한 퍼징 연구를 진행중에 있습니다. 기존 하이퍼바이저 퍼징 연구의 한계를 분석하고, 퍼징 영역 및 탐색 전략을 확장함에 따라 나타나는 문제를 해결하고자 합니다.


7. SmartNIC을 활용한 커널 기능 오프로딩에 대한 연구

SmartNIC은 전통적인 네트워크 인터페이스 카드(NIC)에 Arm 코어나 FPGA 등을 탑재하여, 네트워크 기능을 넘어 다양한 연산을 수행할 수 있도록 확장된 장치입니다. 최근 데이터센터에서는 고가의 서버 CPU 자원을 절약하고자 SmartNIC의 경량 코어를 활용하는 사례가 증가하고 있습니다.

저희 연구실에서는 이러한 SmartNIC을 활용하여 커널의 백그라운드 작업을 오프로딩하는 연구를 진행하고 있습니다. 현재는 커널의 메모리 최적화 관련 백그라운드 스레드를 SmartNIC에 위임하여 처리 효율을 높이는 방향으로 실험 및 최적화를 수행 중입니다.

SmartNIC, 커널 내부 구조, 시스템 최적화 등에 관심 있는 학생 분을 찾고 있습니다.


8. eBPF를 활용한 메모리 시스템 가속화 연구

SK Telecom해킹 사태로 인해서, eBPF라는 기능을 요즘 많이 매체를 통해서 들어보셨을 겁니다. eBPF는 운영체제의 기능을 안전하게 확장시키는 기능입니다. Extended Berkeley Packet Filter (eBPF)는 이러한 목표를 위해서 최근 많은 관심을 받고 있는 리눅스 커널의 기능입니다. 저희 연구실에서는 eBPF를 다양한 커널의 활용분야에 접목시키는 연구와 eBPF가 가지는 근원적인 한계를 극복하는 연구를 수행중입니다. 그중 Security측면으로 Use-after-free (UAF)버그를 효율적으로 막기 위한 Allocator디자인을 eBPF와 함께 복합적으로 진행하는 연구를 수행중입니다. 안전한 eBPF의 개발에 대한 근본적인 연구에서, eBPF를 활용한 새로운 Application을 찾는 연구까지 다양한 방면에 걸친 복합적인 연구를 수행중입니다. 해킹, 시스템 최적화, 리눅스 커널 개발에 관심있는 학생을 찾습니다.