WELCOME TO iSPL
WELCOME TO iSPL
Our lab focuses on research in deep learning,ย ย
AI-based computer vision, and autonomous vehicle
Focused on autonomous driving and intelligent mobility since 2011.
Publishing in IEEE venues and leading research in AI, vision, and signal processing.
Achieving best paper awards and international recognition, including Stanford Top 2% Scientists.
Collaborative and positive environment.
3์ ย ์ธ๋ฏธ๋ย
03/06 Gyeonghee JUNG
Deep Dual Consecutive Network for Human Pose Estimationย
03/13 Daegeun KANG
P-MapNet: Far-seeing Map Generator Enhanced by both SDMap and HDMap Priorsย
03/20 Bitwire George Albert
BEVUDA++: Geometric-Aware Unsupervised Domain Adaptation for Multi-View 3D Object Detectionย
03/27 ningย
From Zero to Detail: Deconstructing Ultra-High-Definition Image Restoration from Progressive Spectral Perspectiveย
Title : BEVUDA++: Geometric-Aware Unsupervised Domain Adaptation for Multi-View 3D Object Detectionย (Youtube Link)
The laboratory has been training professional researchers in the field of communication signal processing since 1996 and is currently focusing on deep learning-based communication signal processing, computer vision, and autonomous vehicle research.ย
Since the ICT Automobile Convergence Research Center opened in 2011, iSPL has been researching promising next-generation topics such as V2X for autonomous vehicles, machine learning-based driving environment awareness, vehicle radar and lidar signal processing, artificial intelligence-based user behavior recognition, and indoor positioning.
ย We have been selected as a DSP Lab supported by Texas Instruments and have been conducting practical research with industries both in Korea and abroad.ย
Additionally, we have been engaged in international joint research on autonomous vehicles with French companies since 2017.
iSPL NEWS
[25.10] ๋ฐฐ์์ฑ ์์ฌ๊ณผ์ , 2025๋ ํ๊ตญํต์ ํํ ํ๊ณ์ข ํฉํ์ ๋ฐํํ ์ฐ์๋ ผ๋ฌธ ์์์ ์ถํํฉ๋๋ค! :ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย [์ ํํ๊ณ ๊ฐ๊ฑดํ 3D ๊ฐ์ฒด ๊ฒ์ถ์ ์ํ ์ด์ค SpConv ๊ตฌ์กฐ๋ฅผ ์ ์ฉํ DSVT ๊ธฐ๋ฐ ์ํคํ ์ฒ]
[25.08] ์ง๋ฅ์ ํธ์ฒ๋ฆฌ์ฐ๊ตฌ์ค,ใ์ง์ญ์ฐ์ ์ฐ๊ณ ๋ํ Open-lab ์ก์ฑ์ง์์ฌ์ ใ์คํ๋ฉ ์ ์
[25.07] ๊ฐ์ ์ฌ, ์์น์ฐ ์์ฌ๊ณผ์ , International Elite Summer School in Robotics and Entrepreneurship ํ๋ก๊ทธ๋จ ์ ๋ฐ
[25.04] ์ง๋ฅ์ ํธ์ฒ๋ฆฌ์ฐ๊ตฌ์ค, ๊ณผ๊ธฐ์ ํต๋ถ ํ์ฐํ๋ ฅํ๋ซํผ KNU-ETRI ์ง๋ฅํ ๋ชจ๋น๋ฆฌํฐ ๋ถ๋ฌธ ํ์ฐ ๊ณต๋์ฐ๊ตฌ์ค ์ ์
[24.12] ๋ฐ๋ณ์ค ์์ฌ๊ณผ์ , ์ฐ๊ตฌ๋ ธํธ ๊ฒฝ์ง๋ํ ์ฅ๋ ค์ ์์
[24.10] ํ๋์ ๊ต์, ๋๊ตฌ์์ฅ ํ์ฐฝ์ฅ ์์, ๋๊ตฌ๊ด์ญ์ ์ฐ๊ตฌ๊ฐ๋ฐ์ฌ์ ์ ๊ณต์ ์ ์ , ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ๋๊ตฌ ์ง์ญ์ R&D ํ์ฑํ ๋ฐ ์ง์ญ ๊ธฐ์ ์ ๊ธฐ์ ํ์ , ๊ฒฝ์๋ ฅ ๊ฐํ ๊ธฐ์ฌย : Link
[24.10] 2024 ๋ํ์ ์์จ์ฃผํ ๊ฒฝ์ง๋ํ ๋ฌด์ฌ ์์ฃผ๋ฅผ ์ถํํฉ๋๋ค.
[24.10] Bitwire George Albert ๋ฐ์ฌ๊ณผ์ , ์ 5ํ ํ๊ตญ ์ธ๊ณต์ง๋ฅ ํ์ ๋ํ ์ฐ์๋ ผ๋ฌธ ์์์ ์ถํํฉ๋๋ค! : Benchmarking YOLOv8, YOLOv9, and YOLOv10 for Detecting Tiny and Small Objects in Complex Environments
[24.09] ์ค์ฑ์ ํ๋ถ์ฐ๊ตฌ์, ํ์ ํฌํธํด๋ฆฌ์ค ๊ฒฝ์ง๋ํ ์์์ ์ถํํฉ๋๋ค!
[24.08] ๊น์งํ ๊ณตํ๋ฐ์ฌ ํ์ ์ทจ๋์ ์ถํํฉ๋๋ค!
[24.08]ย ๊ฒฝ๋ถ๋ํ๊ต ์ง๋ฅ์ ํธ์ฒ๋ฆฌ์ฐ๊ตฌ์ค ๋ฅด๋ง, 2024 ๋ํ์ ์์จ์ฃผํ ๊ฒฝ์ง๋ํ ์์ 1์ฐจ 4์ ๊ธฐ๋ก (์ด 10๊ฐ ํ)
[24.07] Nguyen Thi Hoai Thu ๋ฐ์ฌ๊ณผ์ , KNU-EERC ์ฐ์ ๋
ผ๋ฌธ ์์,
Handling Low Sampling Rates in Wearable Sensor-Based Human Activity Recognition
[24.05] KNU iSPL - University of Ljubljana CVL ์ฐ๊ตฌ๊ต๋ฅ ์ํฌ์ต ๊ฐ์ต
[24.03] ์ง๋ฅ์ ํธ์ฒ๋ฆฌ์ฐ๊ตฌ์ค '๋ฅด๋ง' 2024 ๋ํ์ ์์จ์ฃผํ ๊ฒฝ์ง๋ํ ์ฐธ๊ฐํ ์ ์
[24.03] ๊น์ ํ ๋ฐ์ฌ๊ณผ์ , CVGG-19: Customized Visual Geometry Group Deep Learning Architecture for Facial Emotion Recognition, IEEE ACCESS
[24.02] Nguyen Thi Hoai Thu ๋ฐ์ฌ๊ณผ์ , Handle Dense Labeling in Human Activity Recognition Using Self Attention and BiLSTM, IEEE ICCE
[24.02] ์ด๋๊ท ๋ฐ์ฌ๊ณผ์ , GAN-Based Two Stage Network for De-occlusion Face Image, IEEE ICCE