보안을 위협하는 양날의 검, 인공지능

인공지능이 초래할 수 있는 다양한 보안 위험들

2019-07-23     석주원 기자

[CCTV뉴스=석주원 기자] 기술의 발전은 우리의 생활을 풍요롭게 만들어 주지만, 언제나 그렇듯 새로운 기술은 밝은 면과 어두운 면을 동시에 품고 있다. 미래 산업의 마법 지팡이처럼 여겨지는 인공지능 역시 이러한 통설에서 벗어날 수 없다. 물론, 여기에서 말하고자 인공지능 기술의 부작용이 SF 창작물에서 흔히 볼 수 있는 인공지능의 반란은 아니다. 그렇다면 우리가 현실적으 로 만나볼 수 있는 인공지능의 부작용에는 어떤 것들이 있을까?


■ 공격에 먼저 사용된 인공지능 기술

지금까지 우리는 인공지능 기술이 보안산업을 어떻게 발전시키는 지에 대한 여러 사례들과 기술들을 살펴봤다. 인공지능 기술은 현재의 보안 기술들을 한 단계 끌어 올려 주며, 이를 통해 안정적인 비즈니스 환경을 확보할 수 있고, 인력도 더 효율적으로 운용할 수 있다. 그런데 이 인공지능 기술이 수비 측의 전유물이 아니라는 걸 간과해서는 안 된다. 아니, 애초에 인공지능 기술을 더 빨리, 더 적극적으로 활용하기 시작한 것은 공격측이었다. 하루에도 수십만 건씩 발생한다는 변종 악성 코드들을 사람이 하나하나 만들어 냈을 리가 만무하다.
보안 시스템에 적용된 인공지능이 악성 코드의 공격 유형을 자동으로 분석해 대응책을 마련하듯, 공격 시스템에서 동작하는 인공지능도 보안 취약점을 탐지하고 지속적인 공격을 시도해 보안 시스템의 구멍을 찾아낸다. 또, 공격자의 위치를 더 효과적으로 위장하는 데에도 인공지능 기술이 유용하게 활용되고 있다. 이렇게 놓고 보면 사실상 현재의 보안산업은 인공지능에 의해 고도화된 공격을 역시 인공지능으로 고도화된 방어 시스템으로 막아내는 형태를 취하고 있는 것이나 마찬가지다.
인공지능으로 인한 보안 위협은 여기에서 그치지 않는다. 인공지능은 스스로 학습하며 지속적으로 발전해 나간다. 이는 어느 순간 인공지능이, 인간이 아직 도달하지 않은 영역까지 발전해 지금껏 우리가 경험하거나 상상해 보지 않았던 새로운 공격 패턴을 만들어 낼 가능성도 있다는 걸 의미한다. 거창하게 인간의 인지를 벗어난 진화까지 갈 필요도 없다. 그저 지금 우리가 상정하고 있는 공격 패턴을 약간만 비틀 수 있다면, 그 틈새로 내부 시스템에 침투해 막대 한 피해를 발생시키는 것은 충분히 가능한 일이다. 즉, 인공지능 기술의 발전은 보안 시스템의 강화와 함께 공격 시스템의 진화도 촉발시킬 수 있다는 걸 항상 염두에 두어야 한다.


■ 인공지능 기술로 발생한 현실적인 보안 위협

인공지능이 진화해 인간의 인지를 초월한 영역에서 사이버 공격을 감행한다는 가정은 지금 시점에서는 뜬구름 잡는 이야기로 느껴진다. 그렇다면 좀 더 현실적인 범위에서 인공지능의 발전이 가져온 보안 위협에는 어떤 사례들이 있을까?
인공지능 기술로 더욱 고도화된 보안 위협의 대표적 사례가 피싱(Phishing)이다. 피싱은 불특정 다수를 거짓된 정보로 현혹해 주로 금전적인 피해를 유발시키는 범죄 행위로, 현재 여러 수법들이 동원되고 있다. 인공지능과 빅데이터의 발달은 피싱 수법의 고도화에 일조를 했는데, 가령 특정한 공격 대상자를 선정한 후 잠정적 피해자에 대한 모든 주변 정보를 수집해 최적화된 피싱 수법을 도출해 내기도 한다. 이렇게 특정 타깃을 노린 피싱을 스피어 피싱(Spear phishing)이라고 한다. 스피어 피싱에 의한 공격은 주변인을 사칭할 때의 정밀함이 일반적인 피싱보다 높기 때문에 평소에 충분한 주의를 기울이는 사람도 낚여 버리는 경우가 종종 발생한다.
인공지능 기술로 초래된 또 하나의 잠재적 위협으로는 딥페이크(Deepfake)가 있다. 딥페이크란 동영상의 특정 부분만을 인공지능 기술로 합성한 영상 콘텐츠를 말한다. 이 딥페이크가 가장 먼저 활용된 곳은 다름 아닌 성인 콘텐츠였는데, 외국에서 성인 영상물에 유명 연예인의 얼굴을 합성한 딥페이크 영상이 범람했던 시기가 있었다. 당시의 조작된 성인 콘텐츠들은 퀄리티도 조잡한 수준이었고, 피해자가 개인의 영역에 머물러 있었던 데다, 성인물이라는 특성상 크게 이슈화 되지는 않았다.
그런데 지금은 여기서 한 발 더 나아가 유명 정치인의 얼굴을 합성해 실제와 비슷한 딥페이크 영상을 제작해 내는 수준에 이르렀다. 이러한 딥페이크 영상의 문제점은 실제 인물을 사칭해 거짓된 정보를 대중에게 퍼뜨릴 수 있다는 데 있다. 이른바 가짜 뉴스에 강력한 신빙성을 더해줄 수 있다는 걸 의미한다. 안 그래도 가짜 뉴스는 사회의 불안을 초래하는 심각한 문제로 받아들여지고 있는데, 여기에 딥페이크를 비롯한 인공지능 기술이 접목되면 가짜 뉴스의 거짓된 신빙성을 더욱 쉽게 끌어 올릴 수 있다. 특히 내년에는 우리나라의 총선과 미국의 대선을 앞두고 있어 벌써부터 딥페이크 등 인공지능 기술을 이용한 불법 선거 운동을 우려하는 목소리가 높아지고 있다.


■ 사회 감시 시스템의 고도화 및 개인 정보 유출

현재 중국은 정부에서 전 국민의 일거수일투족을 감시할 수 있는 시스템을 구축하고 있다. 그리고 여기에도 인공지능 기술이 적극적으로 도입되고 있다. 우선 시스템의 기반이 되는 영상장비들은 지능형 장비들로 구성되었고, 여기에는 얼굴인식 인공지능 기술이 탑재되어 감시 시스템의 정확도를 높이는데 일조하고 있다. 중국의 보안 업계는 이미 CCTV로 실시간 촬영 중인 영상에서 사람들의 얼굴 데이터를 기반으로 개인의 모든 정보를 즉각적으로 확인할 수 있는 수준에 이르렀다. 특히 안면인식 기술의 경우 톈디웨이예(天地偉業)라는 기업이 중국 정부의 지원을 받아 개발했다고 하는데, 인공지능을 활용한 안면인식 정확도가 90%에 이른다고 한다.
그런데 인공지능에 의한 개인 정보 유출은 감시 사회인 중국에서만 일어나는 문제가 아니다. 우리가 평상시에 아무런 생각 없이 사용하고 있는 대화형 인공지능 서비스들 역시 사생활 침해의 주범으로 지적 받고 있다. 현재 서비스되고 있는 대화형 인공지능들은 기계학습 기반으로 개발되었다. 이는 사용자와의 소통을 통해 더 많은 정보를 수집하고 지속적으로 발전해 나가는 인공지능이라는 걸 의미한다. 아마존 알렉사의 경우 음성 명령만으로 아마존에서 물건을 주문할 수 있다. 이때 알렉사는 사용자가 구매한 제품과 결제 내역까지 모든 데이터를 수집한다. 그리고 이렇게 수집된 데이터는 사용자에게 맞춤 서비스를 제공한다는 이유로 사용자 동의 없이 활용되고 있다.
한 때 사용자의 취향을 분석해 맞춤형 채널이나 영화를 추천해 준다는 IPTV 서비스가 유행한 적이 있었다. 이 역시 인공지능을 통해 사용자가 자주 보는 채널 정보, 영화 정보를 수집해 비슷한 장르의 콘텐츠를 추천해 주는 방식이다. 물론, 사전에 개인 정보 수집에 대한 동의 여부는 물어보지 않는다. 우리는 알게 모르게 이미 인공지능의 감시 하에서 살아가고 있는지도 모르겠다.


■ 자율주행자동차는 안전할까?

인공지능이 접목된 또 하나의 미래산업 중에서는 자율주행자동차가 있다. 자율주행자동차 기술이 공개되고 벌써 수년째 테스트 주행이 세계 곳곳에서 이루어지고 있지만, 아직도 자율주행자동차의 갈 길은 멀다. 완전자율주행자동차 구현을 5단계로 구분했을 때 우리는 아직 3단계에도 완전히 도달하지 못했다고 한다. 어쨌든 이 자율주행자동차에도 인공지능이 탑재된다. 자율주행자동차에 탑재된 인공지능은 온갖 센서와 카메라에서 수집된 데이터를 기반으로 실시간으로 노선을 결정하고 주행 속도를 적절히 조절할 수 있어야 한다. 자율주행자동차를 개발 중인 기업들은 자율주행용 인공지능을 성장시키기 위해 수많은 주행 테스트를 통해 관련 데이터를 축적하고 있다.
그러나 여전히 인공지능만으로는 해결하기 어려운 분야가 남아 있다. 바로 도덕적인 판단의 문제다. 가령 보행자와의 접촉사고가 발생했을 때 인공지능은 탑승자의 안전을 우선시 할 것인가, 아니면 보행자의 안전을 우선시 할 것인가에 대한 문제가 여기에 속한다. 사실 이 문제는 운전자가 사람일 경우에도 명확한 답을 내리기 어려운 질문이다. 다만, 인간 운전자는 이런 상황에서 이성보다는 본능적인 판단으로 행동을 하게 된다. 그렇다면 과연 인간보다 훨씬 빠른 속도로 계산을 행하는 인공지능도 본능에 의해 판단을 내리게 될까? 아마도 정답은 개발자가 미리 설정해 놓은 우선 순위에 따라 행동한다 일 것이다. 그리고 이 우선 순위는 앞으로 제정될 자율주행자동차와 관련된 법안을 통해 결정될 사항이다.
그렇다면 자율주행자동차에서 발생할 수 있는 인공지능 보안 위협은 어떤 것들이 있을까? 가장 흔히 예상할 수 있는 건 해킹에 의한 오작동을 꼽을 수 있다. 어느 분야에서든 인공지능이 해킹을 당하면 심각한 위험을 초래하는 건 마찬가지지만, 자율주행자동차의 경우 인공지능이 문제를 일으키면 사람의 생명과 직결되는 사고가 발생할 가능성이 크다는 점에서 더 많은 주의가 필요하다.


■ 인공지능에 대한 지나친 의존성

인간은 보편적으로 편리함에 한 번 익숙해져 버리면 이후부터는 모든 과정을 편리하게 처리하고 싶어한다. 인공지능 기술은 이러한 인간의 심리를 극대화할 가능성이 농후하다. 현재 보안산업에서 인공지능 기술은 인력으로 처리하기 힘든 분야부터 적극적으로 도입되고 있으며, 기술의 발전 속도도 빠르다. 지능형 CCTV와 통합관제시스템이 여기에 속한다. 인공지능 기술이 도입되기 전 통합관제시스템은 관제 인력 부족으로 인해 제대로 된 기능을 하기 어려웠다. 지금은 인공지능이 영상 감시와 분석을 자동적으로 수행함으로써 오히려 관제 인력을 축소시켜야 한다는 주장까지 나오는 실정이다. 그런데 인공지능의 감시와 분석을 정말 100% 신뢰할 수 있을까?
현시점에서의 인공지능은 만능키가 아니다. 실제로 인공지능을 도입한 보안 솔루션들도 오탐이 줄어든다고 하지, 0이라고 하지는 않는다. 이는 관제 시스템도 마찬가지다. 그런데 지능형 관제 시스템 도입 이후 관제 인력들이 지나치게 인공지능을 신뢰하다가 오탐을 놓치는 경우도 발생할 수 있다. 이 경우에는 인공지능 자체가 문제라기보다는 인공지능에 지나치게 의존하게 된 시스템 관리자들이 문제가 되는 사례라고 할 수 있겠다. 실제로 전문가들은 현재의 인공지능 솔루션을 하나의 툴로서 다루어야 하며, 완전히 인력을 대체할 수 없다고 강조한다. 다만, 아직은 인공지능의 한계도 명확하다는 걸 사람들이 인지하고 있으므로, 인공지능에 대한 의존성은 낮은 편이다. 그러나 앞으로 더욱 발전된 인공지능들이 등장해, 정말로 만능키처럼 대부분의 업 무를 대신할 수 있는 수준이 된다면, 인공지능에 대한 지나친 의존 문제가 크게 부각될 가능성도 있다.


■ 아직은 도구에 불과한 인공지능

인공지능 기술의 도입은 보안 시스템을 노리는 공격자와 방어자 모두에게 발전의 기회를 제공했다. 사실 구도만 놓고 보면 인공지능을 도입하기 전과 크게 달라진 것은 없다. 그저 공격이 더 잦아지고 더 빨라졌으며 더욱 다양한 루트를 공략해 온다는 차이가 있을 뿐이다. 그리고 이러한 공격들은 역시 더 강화된 방어 시스템에 대부분 무력화되고 있다. 결국은 누군가가 주장한 것처럼 지금의 인공지능은 하나의 툴에서 벗어나지 못했을지도 모르겠다. 물론 그 툴이 지금껏 사용해 왔던 그 어떤 도구보다도 강력한 것만은 사실이다. 그렇기 때문에 사용자 입장에서는 더욱 조심스럽게 다루어야 할 필요가 있다.
향후 인공지능은 더 발전될 것이며, 적용되는 영역도 늘어날 것이다. 도시 기간 시설, 금융 서비스, 그리고 군사 시설에 이르기까지 인공지능이 중요한 영역에 차츰 스며들 때, 우리는 과연 이 똑똑하고 위험한 도구를 어떻게 다루어야 할까. 인공지능은 궁극적으로 인간과 닮아갈 수 있을 것인가. 그리고 보안산업은 인공지능으로 완전히 대체될 수 있을지에 대한 대답을 머지않은 미래에 직접 확인할 수 있을 것이다.