2025
[2025.09.15] "Facing Off World Model Backbones: RNNs, Transformers, and S4 " by 김민재
요약: 지난 몇 년간 Transformers를 대체할 알고리즘으로 주목받고 있는 SSM(State Space Model) 기반 신경망 모델이 등장하고 있다. 그 중 Structured State Space Sequence Model(S4)는 Transformer를 비롯한 기존의 모든 시계열 데이터 처리 알고리즘이 해결하지 못한 Path-X task를 해결한 최초의 알고리즘이다. 본 세미나에서 소개하고자 하는 논문의 저자는 신경망을 통해 실제 환경과 상호작용을 수행하지 않고 “가상의 환경(Imagination)” 속에서 상호작용을 통해 보다 주어진 샘플을 효율적으로 사용하는 World Model에서 S4의 성능을 검증하고자 한다. 각각 모델의 Backbone이 RNN, Transformer, S4인 경우에 대해서 Imagination 시 World Model의 성능을 비교한다. 긴 시계열적 메모리 성능을 요구하는 여러 tasks를 사용해 각각의 backbone의 Imagination 시 실제 환경의 모사 정확도를 측정한다.
[2025.08.11] "Sim2Real and Domain Randomization " by 김원석
요약: 시뮬레이터와 현실 간 분포 불일치(Sim2Real Gap)를 극복하기 위해 제안된 기법 중 Domain Randomization(DR)에 대한 문제 정의와 배경을 소개하였다. DR은 물리, 센서, 환경 파라미터를 무작위로 변화시켜 다양한 상황에 강건한 정책을 학습하며 실제 환경을 randomized 환경으로 간주함으로써 zero-shot transfer를 달성할 수 있다. 하지만 학습 난이도와 연산 비용 증가, 분포 설계의 경험 의존성 등의 태생적 단점을 가지며, 이를 개선하기 위해 파라미터 분포를 조정하는 Guided Domain Randomization(GDR)에 대해 살펴보았다. 구체적으로는 실제 성능 피드백 기반 최적화(bi-level optimization, RL/BO), 메타학습 기반 적응, 실제 데이터 정합(SimOpt, RCAN), 시뮬레이터 데이터 기반 가이드(DeceptionNet, ADR) 등 다양한 변형 기법들을 소개하였다.
[2025.08.01] "용접선 프로젝트: 선검출" by 김정호
요약: 비정형 용접 환경에서의 한계를 극복하기 위해 YOLO 기반 ROI 추출과 영상 보정을 거쳐 안정적인 입력을 확보하고, 여러 선 검출 알고리즘과 가중치 기반 RANSAC을 활용해 용접선의 방향을 추정하였다. 이어서 ROI 중심·기울기 조건 및 부재 형상별 규칙을 적용해 Outlier를 제거하고 끝점을 결정함으로써, 다양한 부재 조합 및 환경에 유연하게 대응할 수 있는 용접선 검출 기법을 제안한다.
[2025.07.25] "CDA 시스템 메타휴리스틱 기반 최적조합 도출 기법 소개" by 최호진
요약: 메타휴리스틱 기반 CDA 시스템 소모전력 최소화 과제를 간략히 소개하고, 압축기 모델링 및 AI 기반 최소화를 위한 후속 연구를 방향을 소개하였다. 메타휴리스틱 기반 최적조합 도출 기법은 목표 유량을 만족시키기 위해 각 압축기의 유량 조합을 SA를 기반 탐색한다. 온도를 기반으로 초기에는 광범위하게 조합을 탐색하다가 온도가 점차 감소함에 따라 탐색 범위를 줄여 준최적 조합을 탐색해나간다. 나아가 branch 기법을 활용하여 탐색 속도 및 성능을 높였으며, 결과를 공유하고 이에 대한 논의를 진행하였다.
[2025.07.18] "Neural Netwok기반 MRAC, DSM(Deep Surrogate Model) 연구 소개" by 이지혜
요약: Neural-Network 기반 MRAC 과제의 배경과 성과를 간략히 소개하고, 후속 연구인 DSM(Deep Surrogate Model)의 진행 현황을 발표하였다. DSM은 복잡한 물리 시뮬레이터의 동적 특성을 신경망으로 모사하여 시뮬레이션 시간을 대폭 단축하고, 개발 효율을 향상시키는 기법이다. DSM 추론 시, auto-regressive 방식을 사용할 경우 이전 단계에서 발생한 출력 오차가 다음 단계의 입력으로 재사용되면서, 오차가 증폭되는 exposure bias 현상이 발생한다. 본 세미나에서는 이를 개선하기 위해 Scheduled Sampling, Multi-step loss 등의 기법을 적용하는 다양한 방안에 대해 논의하였다.
[2025.07.14] "Bayesian Optimization" by 김원석
요약: 블랙박스 함수 최적화를 수행하는 Bayesian Optimization(BO) 기법을 KCC 튜토리얼 자료를 토대로 간략히 소개하였다. BO는 블랙박스 함수를 근사하는 대체모델과, 그 모델의 예측값/불확실성을 토대로 다음 탐색 위치를 결정하는 획득함수로 구성된다. 대체모델은 주로 다변량 정규분포를 나타내는 Gaussian Process의 공분산 함수를 두 입력값 사이의 유사도를 나타내는 커널로 사용한다. (입력 간 거리가 멀수록 불확실성이 커지는 것을 표현) 또한, High-dimensional BO 문제를 해결하기 위한 가산모델(차원출력 합산), 부분공간(차원선형축소), 잠재공간(비선형임베딩) 활용 기법을 소개하였다.
[2025.06.09] "Dreamer Supplement" by 이창민
요약: 이 세미나에서는 World Model에서 가장 중요하다고 할 수 있는 Transition Model의 구조인 RSSM에 대해서 살펴본다. 해당 구조는 Deterministic Latent State와 Stochastic Latent State 모두가 시계열 정보를 가지면서 전이되는 형태로, 이전 상태를 정확하게 반영하면서도 불확실성을 반영할 수 있다. 또한 해당 RSSM이 신경망 수준에서 정확하게 어떻게 구성되는 지 확인하고, RSSM의 일부분을 공유하는 Representation Model을 추가하여 Dreamer에서 Dynamics의 학습이 어떻게 진행되는 지 자세하게 알아보았다.
[2025.05.26] "Dreamer v1, v2, v3: Model-Based Reinforcement Learning with world models" by 김민재
요약: World Models는 기존 Model-Based Reinforcement Learning의 걸림돌인 Compounding Error를 극복하고자 Recurrent State Space Model(RSSM)구조를 제시하였다. Dreamer Algorithms는 World Models를 사용하여 DMC, Atari를 비롯해 약 150개의 tasks에 적용하는데 성공한 알고리즘이다.Dreamer Algorithm에 대한 논문은 총 세 편으로, 본 세미나에서는 기본이 되는 Dreamer v1 알고리즘을 소개하고, v2 및 v3 알고리즘에서 추가된 기법을 설명한다. 또한 각각의 기법이 어떤 원리로 적용되고, 성능을 향상시켰는지에 대해 발표한다.
[2025.05.12] "Surrogate Model without Simulation Data" by 최호진
요약: 본 세미나는 simulation data 없이 surrogate model을 학습하는 방법에 대해서 소개한다. 실제 유체역학에서 사용되는 CFD simulator의 데이터를 사용하지 않고 물리수식을 기반으로 loss function을 설계하고 surrogate model에 학습단계부터 다양한 조건을 함께 고려하여 출력을 생성하도록 설계한다. 실제 CFD 결과와 surrogate model의 성능 결과를 비교하고 수식만으로도 surrogate model 학습이 가능한 것을 실험결과를 통해 보여준다.
[2025.04.28] "Do As I Can, Not As I Say: Grounding Language in Robotic Affordances(saycan)" by 고은성
요약: SayCan은 대형 언어 모델(LLM)의 일반적 지식과 로봇의 실제 행동 가능성(Affordance)을 결합하여 로봇의 작업 수행 능력을 획기적으로 개선한 모델이다. LLM(Say)은 사용자의 명령을 이해하고 어떤 행동이 적합한지 확률적으로 판단하며, 가치함수(Value Function)를 사용하는 행동가능성 모델(Can)은 로봇이 현재 상태에서 특정 행동을 성공적으로 수행할 확률을 평가하여 현실 환경의 제약을 반영한다. SayCan은 이 두 가지 확률을 결합하여 로봇이 실제 환경에서 가장 적합하고 성공 가능성이 높은 행동을 선택하도록 함으로써, 로봇이 수행 가능한 현실적인 행동을 효과적으로 계획하고 수행할 수 있도록 개선했다.
[2025.04.21] "LLAMBO: large language models to enhance Bayesian optimization" by 김정호
요약: 고차원 블랙박스 함수를 최적화 하는데 쓰이는 BO에는 사실 약점이 많다. 기존의 그리드 서치와 랜덤 서치 대비 신속한 최적화와 더 적은 데이터의 필요를 표방하지만, 관측 데이터가 부족하면 탐색 효율이 저하되고, 초기 데이터가 없다면 무작위 초기화에 의존하게 되며 그에 따라 발생하는 초반 단계의 시행 착오가 surrogate model의 편향을 발생 시킬 수 있다. LLAMBO는 이러한 문제를 LLM과 프롬프트 엔지니어링만을 활용해 해결하였다.
[2025.04.14] "Transformer-Based Surrogate Model" by 이지혜
요약: 데이터 센터의 온도 제어를 위해 surrogate model을 적용하여 시뮬레이션 속도를 향상시킨 연구를 소개하였다. 이 연구에서는 Transformer의 self-attention 메커니즘을 활용하여 입력 데이터의 시간적, 공간적 연관성을 효과적으로 학습할 수 있도록 surrogate model을 설계하였다. 또한, 물리적 변화 예측이라는 목표에 맞게 입출력 구조를 구성하여, 기존 모델 대비 시뮬레이션 속도와 예측 정확도 향상을 달성한 실험 결과를 제시하였다.
[2025.04.07] "Robot Foundation Model 2" by 이창민
요약: RT-1, PaLM-E, RT-2, pi0까지 발전한 RFM들을 살펴보았다. 로봇마다 관절의 크기나 카메라 위치도 달라지고, 같은 로봇이라도 task specific하게 훈련이 되었기 때문에 자연어 처리, 비전 분야와 다르게 로봇은 로봇 specific한 한계로 Foundation Model이 등장하지 못하고 있었다. 이를 해결하기 위한 시도를 지난 Robot Foundation Model 1 세미나에서 소개하였고, (데이터 셋 크기 키우기, 모델 크기 키우기, 속도 향상을 위한 아키텍처 고안) 이번 세미나에서는 어떻게 “추가적인 성능 향상”을 이루었는지 살펴보았다. RT-2는 자연어 및 이미지 입력을 low-level의 로봇 액션으로 출력함으로써 일반화 성능을 향상시킬 수 있었다. pi0는 Mixture of Experts(VLM과 Action Expert), Flow Matching(Diffusion 기반의 생성형 모델) 등 최신 방법론들을 Robot Learning에 맞도록 변형하여 일반화 성능을 더욱 끌어올렸다.
[2025.03.31] "Reinforcement Learning with Intrinsic Reward: ICM, RND using Unity" by 김민재
요약: Intrinsic Reward는 Sparse Reward 환경에 대하여 Exploration을 강화하는 방법이다. 본 세미나에서 Intrinsic Reward의 방법과 예시에 대해 소개하고, 이를 응용해 만들어진 두 가지 Intrinsic Reward 알고리즘 ICM, RND을 논문을 바탕으로 소개하였다. 또한, Unity에서 간단한 Sparse Reward 환경인 미로찾기를 구현하고, ICM, RND를 구현하여 해당 환경에서 결과를 비교했다.
[2025.03.24] "Knowledge Distillation of LLMs" by 고은성
요약: 최근 지식 증류가 활발히 활용되고 있는 LLM 분야에서, 지식 증류가 어떻게 적용되는 지를 이해하고, 특히 MiniLLM 논문을 통해 최신 LLM 지식 증류 기법에 대해 살펴보았다. MiniMML은 기존 지식 증류에서 흔히 사용되던 KL-Divergence를 역방향으로 적용함으로써, LLM에 보다 적합한 목적함수를 제안한 기법이다.
[2025.03.17] "Meta-Heuristic" by 최호진
요약: Meta-heuristic Algorithm이란 Heuristic Algorithm과 같이 good solution을 구하는 Algorithm이지만 특정 문제에 종속되지 않고 다양한 문제에 적용이 가능한 Frame work가 되는 Algorithm이다. 본 세미나는 Meta-heuristic 서베이 논문을 기반으로, 여러 Meta-heuristic Algorithm 기법을 소개한다. Genetic Algorithm (GA), Particle Swarm Optimization (PSO), Ant Colony Optimization (ACO), Artificial Bee Colony (ABC), Simulated Annealing (SA) 총 5가지 알고리즘의 컨셉 및 동작 방식을 TSP를 적용한 예시 코드를 활용하여 소개하였으며 각 알고리즘의 차이점을 비교하였다.
[2025.03.10] "AutoML" by 이지혜
요약: AutoML은 딥러닝 모델 개발의 전체적인 파이프라인을 자동화하는 개념이다. 본 세미나에서는 AutoML 관련 서베이 논문을 바탕으로, 딥러닝 모델 구축 과정인 데이터 준비(Data Preparation), 특징 엔지니어링(Feature Engineering), 모델 생성(Model Generation) 순으로 주요 연구 분야를 소개하였다. 특히, 모델 생성(Model Generation) 단계에서 대표적인 기법인 NAS(Neural Architecture Search)의 기본 개념과 주요 탐색 방법을 중점적으로 다루었다.
[2025.03.10] "Robot Foundation Model" by 이창민
요약: LLM이나 Vision 분야는 나름대로 Foundation Model이라 불리는 모델들이 존재한다. GPT나, SAM이 그에 해당한다. 하지만 로봇의 Task Specific한 특성상 여러 로봇은 물론이고, 여러 Task에조차 범용적 적용이 가능한 모델이 존재하기 어렵다. 이러한 한계를 조금이나마 극복하기 위해 처음 등장한 모델이 RT-1이다. RT-1은 모델의 크기를 키우면서 추론 속도가 저하되지 않도록 새로운 모델 구조를 제시했다. 먼저 이미지를 효율적으로 토큰으로 변경하는 EfficientNet을 사용하였고, Instruction의 정보 또한 FiLM을 통해 통합하였다. 그리고 최종적으로 생성된 토큰을 Transformer의 Decoder에 입력으로 전달하고, 256개로 이산화된 액션을 출력한다. 이 과정도 입력의 차원에 따라 작업 시간이 제곱으로 증가하는 작업인데, TokenLearner 구조를 적용하여 추론 시간을 줄였다.
[2025.02.24] "GAN" by 김정호
요약: GAN은 기존 생성 모델들이 확률 분포를 직접 추정하는 MLE 기반 방식의 학습 난이도와 최적화 문제를 해결하기 위해 제안된 기법이다. 적대적 학습을 통해 생성자(G)와 판별자(D)가 경쟁하며 점점 더 현실적인 데이터를 생성하도록 유도하지만, 모드 붕괴, 학습 불안정성, 평가 기준 부족 등의 한계를 가진다. 본 세미나에서는 이러한 GAN을 이해하기 위해 필요한 배경지식과, 어떻게 GAN으로 실제 데이터의 확률 분포를 추종하는 것이 가능한가에 대해 다룬다.
[2025.02.24] "Knowledge Distillation" by 고은성
요약: Knowledge Distillation이란 모델의 규모가 큰 모델(Teacher model)의 지식을 작은 모델(Student model)에게 전달하여 성능을 유지하면서도 경량화된 모델을 만드는 대표적인 모델 경량화 방법 중 하나이다. 도메인과 데이터에 따라 다양한 KD 방법이 연구되고 있으며, 이번 세미나에서는 기본적인 Vanilla KD를 비롯해, Teacher model에서 활용되는 Knowledge의 개념과 연구 동향을 소개하였다.
[2025.02.10] "Surrogate Model" by 이지혜
요약: Surrogate model(대체모델)이란 복잡한 시스템의 입출력 특성을 근사해 계산량을 크게 줄이면서 유사한 결과를 내는 모델이다. 예를 들어, 며칠이 소요되는 자동차/항공기 설계 시뮬레이션이나 최적화 과정을 대체모델로 단축할 수 있으며, 최근에는 신경망 기반 구현이 주목받고 있다. 활용 사례로, 인접 데이터가 유사할 때 대체 모델을 CNN으로 구현하는 방법, 물리 시뮬레이션 대체모델의 loss function에 물리 법칙을 반영하는 방법, 그리고 LSTM-AE로 대체모델의 입출력 차원을 축소하는 방법 등을 소개하였다.
[2025.02.10] "Let’s dive into World Model with Genie" by 이창민
요약: 현재의 World model은 video generation model의 일종으로 볼 수 있으며, 긴 영상 생성, 3D 모델링이 필요하지 않은 cost-effective simulation, 사용자 상호작용 등의 특징을 가진다. 세미나에서는 World model 중 하나인 Genie의 세 컴포넌트를 살펴봤으며, (1)Video Tokenizer는 video frames을 discrete tokens로 변환하고, (2)Latent Action Model는 training phase에만 사용되며 frames 사이의 action(8개의 이산적 액션)을 추론하고, (3)Dynamics Model은 video tokens(from VT)와 action(from LAM)을 받아 다음 video tokens을 생성한다.
[2025.01.27] "ImageBind: One Embedding Space To Bind Them All" by 김정호
요약: CLIP, BLIP에 이어 ImageBind가 발견한 현상을 소개하였다. CLIP은 텍스트와 이미지를 공통 임베딩 공간에 정렬하여 대조 학습 (이미지-텍스트 쌍을 크롤링하여, 각 쌍별 인코딩 결과 벡터 유사도가 높게 나오고 다른 쌍의 유사도는 낮게 나오도록 학습) 수행하고, BLIP은 크롤링 오류를 CapFilt(사전 학습된 모델로 이미지-텍스트 쌍 오류 검출 후 정확한 캡션 생성하여 학습) 등으로 해결하는 등 Vision-Language Model의 접근법을 제시하였다. ImageBind는 여기에 이어 이미지를 중심으로 텍스트, 오디오, IMU, Depth 등을 CLIP 방식으로 대조 학습했더니 직접 학습하지 않은 연관된 쌍 (오디오-텍스트)의 유사도가 높게 나오는 것을 발견하였다.
[2025.01.20] "Actor-Critic Deep Reinforcement Learning for Solving Job Shop Scheduling Problems" by 최호진
요약: CNN 기반 Actor-Critic 모델을 활용한 Job-Shop Scheduling Problem 해결 방법 소개
[2025.01.20] "Segment Anything(SAM)" by 고은성
요약: zero-shot generalizaion을 통한 segmentation 계의 foundation model을 만들려는 meta의 SAM(Segment Anything Model), 실시간 비디오 분할까지 가능하게 한 SAM2 그리고 그의 활용에 대한 소개
[2025.01.13] "Mutual Information State Intrinsic Control" by 이창민
요약: Mutual Information 기반 보상으로 Agent와 Surrounding의 상호작용을 학습하여 RL 성능을 향상시키는 MUSIC 논문 리뷰
[2025.01.06] "Policy-Based Reinforcement Learning: A Comparative Analysis of Six Algorithms" by 이지혜
요약: 여섯 가지 정책 기반 강화학습 알고리즘의 성능과 특징 소개 및 비교 분석
2024
[2024.12.24] "Job-Shop Scheduling Problem and DRL" by 최호진
요약: 강화학습을 활용한 Job-Shop Scheduling Problem 해결 방법 소개
[2024.12.24] "Vision Transformer" by 김정호
요약: Transformer 모델의 구조와 ViT를 통한 이미지 인식 기술의 확장성을 소개하며, Attention 메커니즘에 대해 설명
[2024.12.13] "LayoutLM: Pre-training of Text and Layout for Document Image Understanding" by 고은성
요약: DocVQA 해결을 위해 시각적 정보와 레이아웃까지 이해하는 멀티모달 모델을 제안한 LayoutLM 논문 리뷰
[2024.12.06] "Panoptic Segmentation" by 최호진
요약: Semantic & Instance Segmentation 설명 및 Panoptic Segmentation 소개 및 평가 방법 설명
[2024.11.22] "Gen2Sim: Scaling up Robot Learning in Simulation with Generative Models" by 김정호
요약: 생성 모델과 LLM을 활용해 로봇 학습의 전 과정을 자동화하며, 시뮬레이터와 실제 환경 간의 간극을 줄이기 위한 프레임워크인 Gen2Sim을 소개
[2024.11.22] "Tree of Thoughts: Deliberate Problem Solving with Large Language Models" by 이창민
요약: LLM의 추론 능력 향상을 위한 Tree of Thoughts 기법 소개
[2024.11.08] "InfographicVQA & 시각장애인 보행보조 시스템" by 고은성
요약: 어려운 실제 문제들을 인공지능과 알고리즘을 통해 해결하고자 했던 발표자의 프로젝트들 소개
[2024.10.25] "DeepLSD" by 김정호
요약: 전통적인 선분 검출 기법과 딥러닝 기반 기법을 통합한 하이브리드 방식으로, 정밀성과 강인성을 확보한 선분 검출 및 보정 알고리즘인 DeepLSD를 소개
[2024.10.22] "Adressing Function Approximation Error in Actor-Critic Methods: TD3" by 이지혜
요약: DDPG(Deep Deterministic Policy Gradient) 알고리즘의 구조 및 한계점을 설명하며, 이를 개선한 TD3(Twin Delayed Deep Deterministic Policy Gradient) 알고리즘의 동작 원리에 대해 설명
[2024.10.15] "AirLine" by 김정호
요약: 엣지 기반의 선분 검출 및 Conditional Region-grow 알고리즘을 활용해 높은 효율성과 일반화 능력을 갖춘 실시간 선분 검출 기법 소개
[2024.10.04] "Genealogy of Reinforcement Learning" by 이창민
요약: 강화학습 모델의 진화 과정과 각 모델에 도입된 주요 방법론 분석
[2024.09.27] "Large Language Models Empowered Autonomous Edge AI for Connected Intelligence" by 최호진
요약: LLM을 활용한 엣지 AI 자동화 프레임워크 소개
[2024.09.20] "DDPG" by 이지혜
요약: DDPG(Deep Deterministic Policy Gradient) 알고리즘의 구조와 학습 방식에 대한 소개
[2024.08.26] "산불 면적 산출 모델 관련 논문 리뷰" by 최호진
요약: 산불 면적 산출을 위한 용어 정리 및 fire frontline 산출 방법 소개
[2024.07.29] "Resource Allocation 논문 리뷰" by 최호진
요약: 엣지 컴퓨팅 환경에서의 resource allocation 관련 최근 연구 동향 소개 및 보완 논문 소개
[2024.07.22] "정책 기반 강화 학습" by 이지혜
요약: 연속적 행동 공간에 적용 가능한 정책 기반 강화 학습 알고리즘의 개념 및 DPG(Deterministic Policy Gradient) 알고리즘의 구조와 동작 원리에 대해 소개
[2024.07.15] "Reinforcement Learning 기초" by 이창민
요약: 강화 학습의 기본 개념에 대한 소개
[2024.07.08] "Resource Allocation Survey" by 최호진
요약: 엣지 컴퓨팅 환경에서의 resource allocation 관련 최근 연구 동향 소개
[2024.05.20] "ROS(Robot Operating System)2" by 이지혜
요약: 로봇 운영 체제인 ROS2의 개념과 통신 방법에 대해 설명하고, 간단한 실습 예시를 통한 활용 방법 소개
[2024.05.07] "PI and MRAC" by 이지혜
요약: 예시를 활용하여 PI 제어기의 원리에 대해 설명하고, 적응형 제어기인 MRAC(Model Reference Adaptive Control)에 대해 설명
[2024.03.11] "강화학습 및 클라우드" by 이지혜
요약: 강화학습의 개념과 Q-learning, Deep Q-learning 알고리즘 및 DQN(Deep Q-Network)에 대한 설명
클라우드 네이티브 애플리케이션의 특징인 마이크로서비스, 컨테이너 가상화, DevOps 및 CI/CD에 대한 전반적인 소개
[2024.02.08] "머신러닝과 딥러닝" by 이지혜
요약: 머신러닝의 기본 개념에서부터 CNN(Convolutional Neural Network) 및 RNN(Recurrent Neural Network)의 원리와 응용에 대한 소개
2023
[2023.12.04] "OpenCV/CNN 기반 자율주행 페인팅 로봇" by 김정호
요약: YOLOv8과 Airline 알고리즘을 활용해 도장면 기준선을 인식하는 기법과 해당 기법을 테스트 할 수 있는 시뮬레이터에 대해 소개
[2023.12.04] "객체인지 기반 자율주행" by 이지혜
요약: 3D Lidar를 활용하여 가상의 2D Laser Scan 데이터를 생성하고 이를 이용해 맵을 구축하며, YOLOv8을 적용한 객체 인식 성능을 갖춘 자율주행 로봇 개발 프로젝트를 진행 및 소개
[2023.08.21] "A Neural Network Based Recursive Least Square Multilateration Technique for Indoor Positioning" by 안현기
요약: 실내 위치 추적을 위한 신경망 기반 multilateration 기법을 활용하여 RMSE를 줄이고 계산 복잡도를 낮추는 방법론 소개
[2023.05.17] "Unity - Configuration of cinemachine for cameras' complicated movement" by 김정호
요약: 스크립팅 없이도 다양한 카메라 워크를 구현할 수 있는 모듈로, Virtual Camera와 Brain Camera를 활용해 유연하고 효율적인 카메라 움직임 및 전환을 제공하는 툴 소개
[2023.04.24] "Unity - Lightmap and Raycast" by 김정호
요약: Unity에서 활용되는 조명 기법인 라이트맵(Baked/Realtime), 라이트 프로브, 리플렉션 프로브가 적용되는 방식 소개
[2023.04.18] "3D Radiometric Mapping by Means of LiDAR SLAM and Thermal Camera Data Fusion" by 최호진
요약: LiDAR를 활용한 3D 공간 구축 방법 및 열화상 데이터 퓨전 기법 소개
[2023.03.27] "비전을 활용한 용접 부재 정보 인식 및 용접선 추출" by 김희준
요약: 센싱 데이터와 YOLO를 활용한 용접선 추출 및 부재 정보 자동화 연구 분석
[2023.01.03] "Data interpolation in UWB RTLS System" by 안현기
요약: UWB RTLS 시스템에서 데이터 보간 기법을 활용하여 누락된 데이터를 복원하고 위치 추정 정확도를 개선하는 방법 소개
2022
[2022.12.04] "A Low-Cost Indoor RTLS Based on TDoA Estimation of UWB Pulse Sequences" by 안현기
요약: Low-Cost UWB-TDoA 기반 실내 위치 추적 시스템 설계와 초해상도 기술을 활용한 정확도 개선 방안 소개
[2022.12.04] "Lidar Sensor and SLAM algorithm" by 최호진
요약: LiDAR 동작 방식 소개 및 SLAM 알고리즘 소개
[2022.08.21] "Real-Time Location System on UWB" by 안현기
요약: UWB 기반의 실시간 위치 추적 시스템(RTLS)에 대한 주요 기술(TWR, ToA, TDoA, AoA)의 장단점과 구현 방법 설명
[2022.05.17] "컬러 모델 분석 및 컴퓨터 비전과 관련된 딥러닝 모델 소개" by 최호진
요약: 다양한 컬러 모델 소개 및 CNN 모델 소개