[포커스온] 사이버 공간의 창과 방패, AI의 두 얼굴

보안업계 대세는 AI, 진화하는 사이버 보안

2023-02-14     곽중희 기자

“우리는 러시아에 패배했다. 무기를 내려놓고 가족들에게 돌아가라.”

2022년 3월 16일 우크라이나의 TV채널 ‘우크라이나24’에는 젤렌스키 대통령이 러시아에 항복을 고하는 목소리가 울려 펴졌다. 알고 보니 해당 영상은 가짜였다. 러시아 소속 해커들이 인공지능(AI) 기반의 딥페이크 기술로 합성 영상을 만들고 우크라이나 TV채널을 해킹해 영상을 방영한 것이었다.

당시 젤렌스키 대통령의 합성 영상은 AI 알고리즘 ‘생성적 적대신경망(GAN)’ 기반의 딥페이크 기술로 만들어진 것으로 알려졌다. 구체적인 기술은 파악되지 않았지만 전문가들은 영상이 AI 기반의 합성 오픈소스 프로그램 ‘딥페이크랩(Deepfacelap)’으로 제작된 것으로 추정했다. 이 사건은 AI를 활용한 사이버 공격이 우리 사회에 얼마나 큰 영향을 미칠 수 있는지 보여줬으며, 또한 동시에 AI 기반의 사이버 공격에 대비하기 위한 AI 보안의 필요성도 일깨워줬다.

마이크로소프트(MS)의 최고과학책임자 에릭호로위츠는 2022년 5월 열린 미국 군사위원회 사이버 보안 소위원회에서 “AI는 사이버 보안 위협을 탐지하고 대응하는 데도 쓰이지만 동시에 공격적 AI로 사용될 경우, 사이버 공격을 크게 고조시킬 수도 있다”고 강조했다. 이처럼 사이버 공간에서 AI의 영향력은 앞으로 예측할 수 없을 만큼 커질 전망이다.

 

지능화되는 사이버 공격, AI 해커의 등장

AI는 해킹, 딥페이크, 제로데이 등 다양한 사이버 공격에 활용되고 있으며 그 수준도 높아지고 있다. 이에 많은 기업과 전문가들이 AI 기반의 사이버 위협을 우려하고 있다.

미국의 보안 전문가인 브루스 슈나이어 하버드 케네디 교수는 2022년 6월 7일 열린 RSA 콘퍼런스 기조 연설에서 “AI가 해킹을 하기 시작하면 인간이 처리할 수 없는 규모의 많은 보안 취약점이 발견될 수 있다. AI 해커로 가득 찬 세상은 예전에는 과학 소설(SF)에서나 볼 수 있었지만, 이제는 현실화되고 있다”라고 말했다.

또한 그는 AI가 고도화되고 그 기술이 해킹 등 사이버 공격에 활용되면 설계자 의도와 관계없이  AI가 스스로 사회 시스템을 공격하게 되고, 이는 곧 우리 사회에 상상할 수 없는 큰 위협을 불러올 수 있다고 강조했다.

일부 멀웨어 개발자들은 이미 AI를 기반으로 한 악성 소프트웨어를 개발하고 있다. 이스라엘 보안 기업 체크포인트는 최근 오픈AI의 AI 챗봇 ‘챗GPT’를 통해 악성코드를 작성한 사례를 발견했다. 체크포인트에 따르면, 해커들은 챗GPT를 사용해 해킹 도구를 만들고 특정 인물을 사칭해 사람들을 속이도록 설계된 챗봇을 구축했다.

이런 챗GPT 등 AI 챗봇을 활용한 사이버 공격은 최근 가장 많은 피해를 일으키는 ‘BEC(기업 이메일 침해)’에도 활용된다. 해커들은 챗GPT를 통해 가짜 이메일 템플릿을 만들고 이를 통해 피싱 이메일을 만들어 기업에 전송한다.

이 템플릿은 오타나 문법 등 미세한 오류도 잡아낼 만큼 잘 설계돼 사람들을 쉽게 속일 수 있다. 실제로 보안 기업 앱노멀시큐리티의 위협 첩보 책임자 크레인 하솔즈(Crane Hassold)가 챗GPT를 통해 일반 기업에서 사용하는 정식 이메일과 같은 모양의 피싱 메일을 생성한 결과, 정식 메일과 거의 차이가 없는 메일을 만들어 낼 수 있었다.

또한 최근에는 영상·음성·이미지 등을 조작해 사람들을 속이는 AI 기반의 딥페이크, 딥보이스 기술도 성행하고 있다. 삼성SDS는 2023년 주의해야 할 5대 사이버 보안 위협 중 하나로 ‘AI를 활용한 해킹 등 지능화 공격’을 꼽았다. 특히 삼성SDS는 AI 기반 공격 중에서도 영상·음성 합성 기술 딥페이크, 딥보이스 등을 통한 신원 증명 등 금융 범죄가 성행할 것으로 예측했다.

2021년 아랍에미리트연합의 한 사이버 범죄 집단은 AI 기반의 목소리 합성 기술인 딥보이스를 통해 은행 경영진의 목소리를 복제했다. 이를 통해 내부 승인 처리를 얻어내 돈을 갈취했다. 당시 해커들은 고도화된 딥보이스 소프트웨어를 통해 임원 목소리를 흉내낼 수 있었다.

또한 AI는 대표적인 사이버 공격 중 하나인 분산 서비스 거부 공격(디도스, DDos: Distributed Denial of Service Attack)’에도 사용된다. 디도스는 네트워크 서버에 엄청난 양의 데이터를 전송한다. 디도스 공격에서 AI는 인간과 달리 쉬지 않고 계속해서 데이터를 전송할 수 있다. 이 외에도 AI는 뛰어난 연산 능력을 통해 대상 시스템의 보안 취약점을 찾아내거나, 보안 시스템에 침입해 정보를 갈취하는 등 보안망을 무력화하는데도 사용될 수 있다.

 

눈에는 눈 이에는 이, AI 보안의 진화

이처럼 AI를 활용한 사이버 공격이 늘어나면서 이를 막아 내기 위한 사이버 보안 기술과 솔루션에도 AI가 탑재되고 있다. AI를 통한 사이버 공격을 사람이 모두 막아낼 수는 없다. 이에 같은 AI로 사이버 공격에 대응하는 AI 보안이 주목받고 있다.

2022년 공공·민간 협력 기구 세계경제포럼이 발표한 ‘세계경제포럼 글로벌 사이버 보안 전망’ 보고서에 따르면, 기업 경영진의 48%가 앞으로 AI가 사이버 보안의 혁신에 큰 영향을 미칠 것이라고 답했으며, 11개 산업 분야에서 영향력 있는 500대 기업의 CEO들은 향후 기업에 가장 큰 영향을 미칠 요소로 사이버 보안을 꼽았다. 이는 향후 AI 사이버 보안이 기업에게 얼마나 중요한지를 보여준다. 세계경제포럼에 따르면, AI는 크게 세 가지 부분에서 사이버 보안을 강화할 수 있다.

• 탐지·대응 자동화를 통한 사이버 위협 완화

먼저 AI는 시스템의 보안 취약점과 이상 행동 등을 식별해 사이버 공격을 사전에 감지하는데 활용될 수 있다. 2022년 IBM이 발표한 ‘Cost of a Data Breach’ 보고서에 따르면, 2021년 발생한 사이버 공격의 91%가 사전에 인지되지 않았으며, 기업이 공격을 식별하기까지는 약 200일이 걸렸다.

이는 언제 어디서 발생할지 모르는 사이버 공격을 사람이 다 막아낼 수 없다는 한계를 보여준다. AI는 이런 사이버 공격을 자동으로 탐지·분석하고 보안팀에게 알려 한계를 극복하는데 도움을 줄 수 있다.

대표적인 예로 은행 등 금융 기관이 운영하는 AI 알고리즘 기반의 사기 방지 솔루션이 있다. 사기 방지 솔루션은 대규모 데이터를 스캔하고 일반적인 행동 패턴을 식별한다. 만약 이상 행동이 탐지되면 잠재적인 사기로 판단해 알림을 주고 추적한다.

신한카드는 ‘이상 금융 거래 탐지 시스템(FDS)’에 AI를 접목해 보이스피싱을 예방하고 있다. 신한카드의 AI 기반 FDS는 AI를 통해 문자메시지, 통화 패턴, 설치된 앱 목록 등을 실시간으로 분석해 보이스피싱 의심 징후를 찾아내 고객에게 알린다. 이 외에도 NH농협카드는 FDS에 AI 기반의 보이스피싱 스코어 모형을 개발해 보이스피싱 등 금융 사기 모니터링을 강화했으며, 우리카드는 자사 금융 시스템에 AI 기반의 악성앱 탐지 솔루션 ‘페이크 파인더’를 도입하기도 했다.

• 데이터 보안관 AI

IBM이 발표한 '글로벌 2021 데이터 침해 보고서'에 따르면, 데이터 유출로 발생한 피해 비용은 2020년 386만 달러(약 46억 원)에서 2021년 424만 달러(약 51억 원)로 10%가량 증가했다. 데이터 유출은 기업의 재정적 손실을 초래하고 고객을 위험에 빠트릴 수 있어 대비책 마련이 중요하다.

최근에는 직원의 실수, 제로데이 공격 등으로 인한 데이터 유출 사고가 많아지면서 AI 기반의 데이터 보안의 필요성이 더욱 높아지고 있다. AI가 개인정보를 식별하고 자동으로 익명화·암호화 등 보호 조치를 수행하게 함으로써 기업이 데이터의 보안성을 강화할 수 있기 때문이다.

데이터 보안 기업 파수는 최근 AI를 기반으로 비정형 데이터 내 개인정보를 검출·마스킹하는 ‘파수 AI 레이더(AIR)’를 출시했다. AIR는 AI를 통해 글, 이미지, 영상 등에 포함된 개인정보를 탐지한다.

자율주행 데이터 기업 인피닉은 올해 열린 CES 2023에서 영상 데이터 속 개인정보를 자동으로 탐지하고 가리는 비식별 솔루션 ‘하이디’를 공개했다. 하이디는 자율주행을 위해 수집한 영상 데이터 속에서 개인의 얼굴, 차량 번호판 등 개인정보를 자동으로 블록 처리해 알아볼 수 없게 만든다.

• 딥페이크도 AI가 잡는다?

딥페이크를 잡아내는 AI도 있다. UC 리버사이드(University of California, Riverside)의 연구팀은 지난해 딥페이크 영상에서 조작된 얼굴 표정을 감지해내는 심층 신경망 모델을 개발했다.

심층 신경망 모델은 딥페이크로 합성된 이미지와 영상의 특정 영역을 감지하고 지역화할 수 있는 ‘얼굴 표정 조작 감지(EMD, Expression Manipulation Detection)’라는 프레임워크를 사용해 영상·이미지 내에서 조작된 정보를 찾아낸다.

EMD는 딥페이크 감지를 위해 2가지 과정을 거친다. 먼저 얼굴 표정 인식(FER, Face Expreesion Recognition)을 통해 눈, 코, 입 등 특정 영역에 대한 정보를 추출한다. 이후 인코더-디코더(encoder-decoder) 아키텍처를 통해 정보 내에서 조작된 영역을 잡아낸다.

UC 리버사이드가 분석한 자료에 따르면, EMD는 두 가지 얼굴 조작 데이터 세트에 대해 표정 조작 뿐 아니라 얼굴 변경도 감지했는데 기존 감지 기술보다 더 나은 성능을 보였으며, 조작된 동영상의 99%를 정확하게 감지했다.

AI는 사이버 공간에서의 창과 방패로 등극했다. AI가 발전할수록 해커들은 AI를 통해 더 많은 공격을 퍼부을 것이고, 보안업계는 이를 막기 위해 더욱 분투할 것이다. 많은 산업이 사이버 공간으로 옮겨가고 그 안에서 AI의 비중은 더욱 커지는 가운데, 공격과 방어 중 AI는 누구의 손을 들어줄지 귀추가 주목되고 있다.