WELCOME TO iSPL
WELCOME TO iSPL
Our lab focuses on research in deep learning,ย ย
AI-based computer vision, and autonomous vehicle
Focused on autonomous driving and intelligent mobility since 2011.
Publishing in IEEE venues and leading research in AI, vision, and signal processing.
Achieving best paper awards and international recognition, including Stanford Top 2% Scientists.
Collaborative and positive environment.
4์ ย ์ธ๋ฏธ๋ย
04/03 Thu
ย ย Bridging Past and Future: End-to-End Autonomous Driving with Historical Prediction and Planning
04/10 Donggyu Lee
ย A Task is Worth One Word: Learning with Task Prompts for High-Quality Versatile Image Inpainting
04/17 Byeongjun Parkย
ย ย ย Accurate Structure Prediction of Biomolecular Interactions with AlphaFold 3
04/24 Shinjae Kang
ย ย ย TBA(To Be Announced)
2026.04.03 ย Donggyu Leeย
Title : A Task is Worth One Word: Learning with Task Prompts for High-Quality Versatile Image Inpaintingย (Youtube Link)
The laboratory has been training professional researchers in the field of communication signal processing since 1996 and is currently focusing on deep learning-based communication signal processing, computer vision, and autonomous vehicle research.ย
Since the ICT Automobile Convergence Research Center opened in 2011, iSPL has been researching promising next-generation topics such as V2X for autonomous vehicles, machine learning-based driving environment awareness, vehicle radar and lidar signal processing, artificial intelligence-based user behavior recognition, and indoor positioning.
ย We have been selected as a DSP Lab supported by Texas Instruments and have been conducting practical research with industries both in Korea and abroad.ย
Additionally, we have been engaged in international joint research on autonomous vehicles with French companies since 2017.
iSPL NEWS
[25.10] ๋ฐฐ์์ฑ ์์ฌ๊ณผ์ , 2025๋ ํ๊ตญํต์ ํํ ํ๊ณ์ข ํฉํ์ ๋ฐํํ ์ฐ์๋ ผ๋ฌธ ์์์ ์ถํํฉ๋๋ค! :ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย [์ ํํ๊ณ ๊ฐ๊ฑดํ 3D ๊ฐ์ฒด ๊ฒ์ถ์ ์ํ ์ด์ค SpConv ๊ตฌ์กฐ๋ฅผ ์ ์ฉํ DSVT ๊ธฐ๋ฐ ์ํคํ ์ฒ]
[25.08] ์ง๋ฅ์ ํธ์ฒ๋ฆฌ์ฐ๊ตฌ์ค,ใ์ง์ญ์ฐ์ ์ฐ๊ณ ๋ํ Open-lab ์ก์ฑ์ง์์ฌ์ ใ์คํ๋ฉ ์ ์
[25.07] ๊ฐ์ ์ฌ, ์์น์ฐ ์์ฌ๊ณผ์ , International Elite Summer School in Robotics and Entrepreneurship ํ๋ก๊ทธ๋จ ์ ๋ฐ
[25.04] ์ง๋ฅ์ ํธ์ฒ๋ฆฌ์ฐ๊ตฌ์ค, ๊ณผ๊ธฐ์ ํต๋ถ ํ์ฐํ๋ ฅํ๋ซํผ KNU-ETRI ์ง๋ฅํ ๋ชจ๋น๋ฆฌํฐ ๋ถ๋ฌธ ํ์ฐ ๊ณต๋์ฐ๊ตฌ์ค ์ ์
[24.12] ๋ฐ๋ณ์ค ์์ฌ๊ณผ์ , ์ฐ๊ตฌ๋ ธํธ ๊ฒฝ์ง๋ํ ์ฅ๋ ค์ ์์
[24.10] ํ๋์ ๊ต์, ๋๊ตฌ์์ฅ ํ์ฐฝ์ฅ ์์, ๋๊ตฌ๊ด์ญ์ ์ฐ๊ตฌ๊ฐ๋ฐ์ฌ์ ์ ๊ณต์ ์ ์ , ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ย ๋๊ตฌ ์ง์ญ์ R&D ํ์ฑํ ๋ฐ ์ง์ญ ๊ธฐ์ ์ ๊ธฐ์ ํ์ , ๊ฒฝ์๋ ฅ ๊ฐํ ๊ธฐ์ฌย : Link
[24.10] 2024 ๋ํ์ ์์จ์ฃผํ ๊ฒฝ์ง๋ํ ๋ฌด์ฌ ์์ฃผ๋ฅผ ์ถํํฉ๋๋ค.
[24.10] Bitwire George Albert ๋ฐ์ฌ๊ณผ์ , ์ 5ํ ํ๊ตญ ์ธ๊ณต์ง๋ฅ ํ์ ๋ํ ์ฐ์๋ ผ๋ฌธ ์์์ ์ถํํฉ๋๋ค! : Benchmarking YOLOv8, YOLOv9, and YOLOv10 for Detecting Tiny and Small Objects in Complex Environments
[24.09] ์ค์ฑ์ ํ๋ถ์ฐ๊ตฌ์, ํ์ ํฌํธํด๋ฆฌ์ค ๊ฒฝ์ง๋ํ ์์์ ์ถํํฉ๋๋ค!
[24.08] ๊น์งํ ๊ณตํ๋ฐ์ฌ ํ์ ์ทจ๋์ ์ถํํฉ๋๋ค!
[24.08]ย ๊ฒฝ๋ถ๋ํ๊ต ์ง๋ฅ์ ํธ์ฒ๋ฆฌ์ฐ๊ตฌ์ค ๋ฅด๋ง, 2024 ๋ํ์ ์์จ์ฃผํ ๊ฒฝ์ง๋ํ ์์ 1์ฐจ 4์ ๊ธฐ๋ก (์ด 10๊ฐ ํ)
[24.07] Nguyen Thi Hoai Thu ๋ฐ์ฌ๊ณผ์ , KNU-EERC ์ฐ์ ๋
ผ๋ฌธ ์์,
Handling Low Sampling Rates in Wearable Sensor-Based Human Activity Recognition
[24.05] KNU iSPL - University of Ljubljana CVL ์ฐ๊ตฌ๊ต๋ฅ ์ํฌ์ต ๊ฐ์ต
[24.03] ์ง๋ฅ์ ํธ์ฒ๋ฆฌ์ฐ๊ตฌ์ค '๋ฅด๋ง' 2024 ๋ํ์ ์์จ์ฃผํ ๊ฒฝ์ง๋ํ ์ฐธ๊ฐํ ์ ์
[24.03] ๊น์ ํ ๋ฐ์ฌ๊ณผ์ , CVGG-19: Customized Visual Geometry Group Deep Learning Architecture for Facial Emotion Recognition, IEEE ACCESS
[24.02] Nguyen Thi Hoai Thu ๋ฐ์ฌ๊ณผ์ , Handle Dense Labeling in Human Activity Recognition Using Self Attention and BiLSTM, IEEE ICCE
[24.02] ์ด๋๊ท ๋ฐ์ฌ๊ณผ์ , GAN-Based Two Stage Network for De-occlusion Face Image, IEEE ICCE