Welcome to AI Safety Center!

We are...

숭실대학교 AI 안전성 연구센터는 인공지능 기술의 급속한 발전에 따라 발생할 수 있는 위험성을 연구하고 이에 대응하기 위한 체계적인 정책과 기술을 개발하는 것을 목표로 합니다. 센터는 다음 세가지 연구 분야에 중점을 두고 활동합니다.



연구센터는 AI 기술이 가져올 수 있는 다양한 위험에 대응하여, 사회적 신뢰를 구축하고 이용자 및 기업의 안전을 보장하기 위한 노력을 지속하고 있습니다.


Research Field

What's new?

최대선 교수는 보안성을 높이려면 사용자가 처해 있는 환경을 인증에 반영하는 방향으로 인증기술이 개발돼야 한다고 했다.
그는 “눈동자를 움직일 때 주변 근육의 떨림이나 심전도 초음파도 향후 생체인증에 활용될 수 있으며,
사용자가 휴대전화를 잡을 때 ‘그립감’까지 식별하는 기술 도입이 필요하다”고 했다.
“인증에 활용되는 AI에 대한 위협이 고도화돼 AI를 속이거나 AI로 속이는 게 가능하다”며 “이런 뉴노멀 시대의 위협에 대비해야 한다”고 강조했다. 

Trend of interest


Google Trends: Security for AI (2016.1.1.~)

Google Trends:  
AI Security (2016.1.1.~) + AI Privacy (2016.1.1~)

Why AI Security?

Trustworthy AI model 이란?

AI 의 보안성이 보장되며, 프라이버시의 침해를 피할 수 있으며,

신뢰성과 공정성을 가진 해석 가능한 모델을 뜻합니다.

AI Security Threats

그러나 AI에는 여러가지 보안측면 취약점들이 존재하며, 그 취약점들을 보완하기 위해 AI 보안이 필수적입니다.


Main Directions of AI cyber Attack



AI Security Fields

Our Research

Security for AI

AI Life-cycle & Vulnerabilities of AI 

모든 AI 의 전체 수명 주기 동안 항상 잠재적인 위험성이 존재합니다. (Development/Deployment/Production)

지능 보안 연구실에서는 각 단계의 위험 요소들에 대한 공격 및 방어 기술을 연구합니다.


Our research: Attack & Defense

Attacks

   ▲ 딥러닝 얼굴 인식기에 대한 기만 공격

백도어 공격

Defences

▲적대적 예제

<XAI를 이용한 AI 기만 공격 분석 및 방어 기술>

    학습데이터 오염, 모델 추출, 학습데이터 추출, AI기만 공격 등에 대한 공격 기술 연구

Security by AI

AI를 활용한 보안 분야 연구 진행 현황