Welcome to AI Safety Center!
We are...
숭실대학교 AI 안전성 연구센터는 인공지능 기술의 급속한 발전에 따라 발생할 수 있는 위험성을 연구하고 이에 대응하기 위한 체계적인 정책과 기술을 개발하는 것을 목표로 합니다. 센터는 다음 세가지 연구 분야에 중점을 두고 활동합니다.
AI 위험관리 연구 : AI 시스템이 직면할 수 있는 위험을 식별하고 평가하며, 이를 예방하고 대응하기 위한 안전성 테스트 및 위험 대응 기술과 정책을 연구합니다. 또한, 이러한 위험을 관리하기 위한 지속적인 프로세스와 법제도를 개발하여 AI의 안전한 사용을 도모합니다.
적대적 AI 공격 및 방어 연구 : AI 시스템이 다양한 적대적 시나리오에서도 견딜 수 있도록 만드는 기술을 개발하여, 시스템의 복원력을 강화하고 보안을 유지하는 데 중점을 둡니다. 특히 국방, 보안 분야의 AI를 중심으로 연구를 진행하여, 국가 안보를 지키는 데 기여합니다.
생성형 AI의 신뢰성 제고 연구 : AI가 생성한 결과물의 정확성을 높이고, 편향이나 오류를 방지하기 위한 기술을 개발합니다. 이를 통해 가짜뉴스 , 딥페이크, 딥보이스 등의 AI 결과물이 부정적으로 사용되는 것을 방지하고, 전반적인 AI 공급망에서 발생할 수 있는 취약점을 진단하고 이를 보완합니다.
연구센터는 AI 기술이 가져올 수 있는 다양한 위험에 대응하여, 사회적 신뢰를 구축하고 이용자 및 기업의 안전을 보장하기 위한 노력을 지속하고 있습니다.
Research Field
AI 보안 취약점 대응 가이드라인 개발
AI 기반 생체정보 프라이버시 보호 기준 개발
AI 신뢰성 인증 시범 사업 참여
공개된 AI 학습데이터 수집 가이드라인 개발
딥페이크 방지 이미지 처리 기술 개발
음성데이터 비식별화 기술 개발
랜섬웨어 대응 생성형 AI 메모리 기술 개발
무인매장 AI 기만 공격/방어 기술 개발
AI 객체인식 기만 패치 공격/방어 기술 개발
연합학습 환경 데이터 복원 공격 기술 개발
AI 모델 백도어 공격 기술 개발
얼굴 인식 AI 기만공격 기술 개발
AI 모델 학습데이터 추출 공격/방어 기술 개발
개인정보 추론 공격 / 방어 기술 개발
LLM 개인정보 유출 방지 기술 개발
AI 학습 활용 가능 얼굴 비식별화 기술 개발
생성 데이터 진실성 판정 기술 개발
메타버스 보안 가이드라인 개발
AI 모델 보안 취약점 분석 기술 개발
분산 엣지 AI 취약점 대응 기술 개발
생성형 AI 입출력 관계 분석 기술 개발
파운데이션 모델 취약점 분석 기술 개발
What's new?
숭실대 최대선 교수 연구팀, 과기정통부 '엣지 AI 보안 기술 개발 '과제 선정 (article)
"메타버스 시대엔 해킹으로 사람 '뇌' 공격도 가능" : 메타버스, 보안업계 새로운 도전으로 떠올라...
최대선 숭실대 교수 "사람 공격할 요소 생긴 것" (article)
숭실대, 과기정통부 기초연구실 사업에 3팀 선정… 최대 6년간 매년 4.5~5억 원 지원 받아 (article)
“AI시대 인증기술, 가볍고 단순하며 사용자 환경 반영해야 성공” (article)
최대선 교수는 보안성을 높이려면 사용자가 처해 있는 환경을 인증에 반영하는 방향으로 인증기술이 개발돼야 한다고 했다.
그는 “눈동자를 움직일 때 주변 근육의 떨림이나 심전도 초음파도 향후 생체인증에 활용될 수 있으며,
사용자가 휴대전화를 잡을 때 ‘그립감’까지 식별하는 기술 도입이 필요하다”고 했다.
“인증에 활용되는 AI에 대한 위협이 고도화돼 AI를 속이거나 AI로 속이는 게 가능하다”며 “이런 뉴노멀 시대의 위협에 대비해야 한다”고 강조했다.
Trend of interest
Google Trends: Security for AI (2016.1.1.~)
Google Trends:
AI Security (2016.1.1.~) + AI Privacy (2016.1.1~)
Why AI Security?
Trustworthy AI model 이란?
AI 의 보안성이 보장되며, 프라이버시의 침해를 피할 수 있으며,
신뢰성과 공정성을 가진 해석 가능한 모델을 뜻합니다.
AI Security Threats
그러나 AI에는 여러가지 보안측면 취약점들이 존재하며, 그 취약점들을 보완하기 위해 AI 보안이 필수적입니다.
Main Directions of AI cyber Attack
Espionage : 공격자가 ML 기반 엔진을 사용하여 데이터셋과 같은 내부 정보를 유출
Sabotage : 모델 조작등의 방법으로 AI 시스템의 기능을 무력화
Fraud : 데이터 오염 혹은 백도어 공격을 통해 AI 모델이 오분류를 하도록 유도
AI Security Fields
Our Research
AI를 활용한 보안 (Security by AI: 사용자 인증, 이상 탐지)
AI 자체에 대한 공격 및 방어 기술 (Security for AI: 학습 데이터 오염, 적대적 예제 등)
Security for AI
AI Life-cycle & Vulnerabilities of AI
모든 AI 의 전체 수명 주기 동안 항상 잠재적인 위험성이 존재합니다. (Development/Deployment/Production)
지능 보안 연구실에서는 각 단계의 위험 요소들에 대한 공격 및 방어 기술을 연구합니다.
Our research: Attack & Defense
Attacks
▲ 딥러닝 얼굴 인식기에 대한 기만 공격
▲백도어 공격
Defences
▲적대적 예제
<XAI를 이용한 AI 기만 공격 분석 및 방어 기술>
학습데이터 오염, 모델 추출, 학습데이터 추출, AI기만 공격 등에 대한 공격 기술 연구