[안내] 대회 공식 개막 및 자료 배포 일정
본 해커톤 예선 대회의 정식 일정은 4월 8일(수)부터 시작됩니다.
도메인 일반화 평가를 위한 공식 데이터셋 및 참조용 베이스라인 스크립트 등의 제반 자료는 해당 일자 이후 본 리포지토리를 통해 순차적으로 공개될 예정이오니 참가자 여러분의 참고를 부탁드립니다
본 대회는 예선으로, 통과한 8팀이 본선으로 진출하게 됩니다. 본선에 관한 내용은 이곳에서 볼 수 있습니다.
예선 참여 신청 구글 폼 바로가기
2026년 중앙대학교 의료인공지능 해커톤 (예선)
* 접수기간: 4.29(수) 23:59 까지
* 주제 및 리더보드 오픈: 3.30(월) 9:00
* 심사 집계: 5.7(목) 23:59 까지
주제 : 🏆의료 영상의 다각도 인지: 퓨샷 도메인 일반화 챌린지 (Multi-View Perception in Medical Imaging: Few-Shot Domain Generalization Challenge)
1. 대회 목적 및 과제 정의 (Objective Definition)
본 예선의 핵심은 1채널(Grayscale) CT 영상 분석 시, 인공지능이 국소적인 픽셀의 질감(Texture) 편향을 극복하고 장기의 본질적인 3차원 기하학(Geometry)과 해부학적 위상 구조(Topology)를 학습할 수 있는 역량을 평가하는 것입니다. 단순한 라이브러리 호출(API Calling)을 넘어, 파라미터 공간(Weight Space)의 직교성과 형태학적 특징을 수학적으로 이해하고 구현하는 인재를 발굴하고자 합니다.
🎯 과제 목표
* 기반 학습 (Source Domain): Axial(A)과 Coronal(C) 단면 데이터만으로 모델을 학습 및 병합합니다.
* 적응 학습 (Target Domain): 소수의 Sagittal(S) 단면 데이터를 활용하여 퓨샷 파인튜닝(Few-shot Fine-tuning)을 수행합니다.
* 최종 평가 (Evaluation): 학습 과정에서 관측하지 못한 새로운 환자의 Sagittal(S), Axial(A), Coronal(C) 단면 이미지가 입력되었을 때, 11개 장기 클래스를 정확히 분류하는 단일 인공지능 모델을 개발해야 합니다.
2. 데이터셋 구성 및 제약 조건 (Dataset & Constraints)
컴퓨팅 리소스의 격차를 줄이고 알고리즘의 본질적 역량 평가에 집중하기 위해, 모든 영상 데이터는 28x28 해상도의 단일 채널(Grayscale) 이미지로 표준화되어 제공됩니다.
📂 주최측 제공 데이터 (Provided Dataset)
Source Domain (사전 학습용):
- Axial 단면 (28x28): 11개 장기 클래스 이미지 및 라벨
- Coronal 단면 (28x28): 11개 장기 클래스 이미지 및 라벨
Target Domain (적응 학습 및 퓨샷 파인튜닝용):
- Sagittal 단면 (28x28): 11개 장기 클래스당 각 50개의 이미지 및 라벨
🚫 제한 조건 (Strict Constraints - Zero Tolerance)
- 외부 데이터 사용 전면 금지: 참가자는 오직 주최측에서 제공한 공식 학습 데이터셋만을 사용해야 합니다.
- 사전 학습 가중치 사용 불가: ImageNet 등으로 사전 학습된 가중치(Pre-trained weights) 사용은 허용되지 않습니다. 반드시 무작위 초기화(Random Initialization) 상태에서 제공된 의료 영상 데이터만으로 학습해야 합니다.
- 적발 시 조치: 대회 진행 및 코드 리뷰 과정에서 위반 사항 발견 시, 사전 경고 없이 즉각 탈락(Disqualification) 처리됩니다.
3. 평가 기준 및 산출식 (Evaluation Metrics)
Target Domain 성능 (70%): 평가용 Sagittal 단면 데이터셋에 대한 Macro $F_1$-score. 1채널 영상 특성상 발생하기 쉬운 단면 뷰(View) 과적합을 피해 일반화된 기하학적 특징을 학습했는지를 평가합니다.
Source Domain 유지율 (30%): 학습되었던 Axial, Coronal 단면에서의 기존 성능 유지력. 파인튜닝 과정에서 발생할 수 있는 지식의 붕괴(Catastrophic Forgetting) 현상을 방어한 정도를 측정합니다.
4. 제출물 규격 및 평가 진행 방식 (Submission & Evaluation)
💻 실행 환경 및 라이브러리 (Environment Consistency)
주최 측 평가 서버의 철저히 통제된 오프라인 폐쇄망 환경에서 평가가 진행됩니다. 의존성 충돌을 방지하기 위해 아래의 환경 및 허용된 라이브러리 내에서만 작동하도록 코드를 작성해야 합니다.
OS: Ubuntu 22.04 LTS
Python: 3.10.x
Framework: PyTorch 2.1.x, Torchvision 0.16.x
CUDA: 12.1
사전 설치(허용) 패키지: numpy, pandas, scikit-learn, nibabel
[주의] 미승인 외부 패키지 사용 시 0점 처리 명시된 패키지 및 Python 내장 라이브러리 외의 임의의 외부 패키지를 호출하여 ModuleNotFoundError 등 실행 오류가 발생할 경우, 예외 없이 0점 처리됩니다. 단, 모델 구현을 위해 불가피하게 추가가 필요한 핵심 라이브러리가 있다면 마감일 이전 정해진 기한 내에 주최 측에 사전 협의(정확한 패키지명과 버전 명시)를 요청할 수 있습니다. 승인된 패키지는 전체 참가자에게 공지 후 반영됩니다.
※ 필수 라이브러리 사전 승인 요청 안내
단, 모델 구현을 위해 불가피하게 추가가 필요한 핵심 라이브러리가 있다면 정해진 기한 내에 주최 측에 사전 협의를 요청할 수 있습니다. 원활한 의존성(Dependency) 충돌 검토를 위해, 요청 시 반드시 ① 정확한 패키지명과 ② 호환되는 버전(Version)을 명시하여 제출해 주시기 바랍니다. 주최 측 검토 후 승인된 패키지는 전체 참가자에게 공지된 후 평가 서버 환경에 반영됩니다.
참가자는 다음 두 가지 파일만을 하나의 ZIP 파일로 압축하여 제출합니다. (패키지 설치 파일 불필요)
model.pth (또는 .pt): 병합 및 학습이 완료된 최종 단일 모델의 가중치 파일.
inference.py: 지정된 입력 폴더를 읽어 예측 라벨 .csv를 산출하는 추론 스크립트.
제출은 하루 최대 2회까지 가능하며, 리더보드는 매일 오전 9시에 업데이트됩니다.
제출처: mediai@cau.ac.kr
주최 측은 오프라인 환경에서 제공되는 블라인드 테스트 셋(더미 파일 무작위 포함)을 대상으로 코드를 실행하여 정량적 점수를 산출합니다.
5. 기타
[참가자격]
- 중앙대 소속 대학생 및 대학원생
- 팀제만 참여 (최대 4명 이하)
[본선 시상]
대상(1팀): 200만원
최우수상(2팀): 50만원
우수상(2팀): 25만원
[주의사항]
- 세부일정 및 대회 정보는 대회 운영 상황에 따라 변동될 수 있음
- 허위 사실 기재 및 도용은 참가가 제한되거나 수상이 취소될 수 있음
- 인적 사항이 잘못 기재된 경우 공지 착신 오류로 인한 문제의 책임은 참가자에게 있음
[문의]
중앙대학교 의료인공지능 특화 융합인재 양성 사업단
mediai@cau.ac.kr
중앙대학교 의료 인공지능 특화 융합인재 양성 사업단
서울특별시 동작구 흑석로 84 중앙대학교 서울캠퍼스 106관 402호 (06974)
☎ 02-881-7284 / 7285 ✉ mediai@cau.ac.kr
Copyright 2025 Chung-Ang University All Rights Reserved