Adversarial Attack & Defense

Adversarial Attack & Defense 분야는인공지능 모델의 보안성을 다루는 기술입니다.


Adversarial Attack은 이러한 지능적 시스템에 대해 악의적인 목적을 가지고 조작된 입력을 넣어서 정상적인 작동을 방해하는 것을 목표로 합니다. 인공지능 모델들은 일반적인 상황에서는 대단히 좋은 성능을 보여주지만 Adversarial attack을 이용하여 입력을 조작하면 눈으로 보기엔 큰 변화가 없음에도 시스템이 완전히 잘못 인식하도록 만들 수 있습니다.

Adversarial Defense는 이러한 인공지능 시대의 큰 위협인 adversarial attack에 대응하여 공격에 대해 방어하여 공격에 대해 강인한 모델을 설계하거나 공격을 사전에 탐지하는 일을 수행합니다. adversarial attack은 현재의 인공지능 모델이 내부적으로 어떻게 작동하는지 간접적으로 이해할 수 있도록 도움을 주기도 하여, Explainable AI 분야에 이용되고 있습니다.


그림 출처 : Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy. "Explaining and harnessing adversarial examples." arXiv preprint arXiv:1412.6572 (2014).

An Example of Adversarial Defense on 3D Point Clouds