[기고] 치안 서비스에 지능, 그리고 윤리를 심다
상태바
[기고] 치안 서비스에 지능, 그리고 윤리를 심다
  • 석주원 기자
  • 승인 2021.06.03 16:00
  • 댓글 0
이 기사를 공유합니다

AI 기반 예측적 치안 시스템의 윤리적 설계 필요

[글=방준성, 신지호]

방준성 | 한국전자통신연구원(ETRI) 지능화융합연구소 공공안전지능화연구실 선임연구원
           과학기술연합대학원대학교(UST) 컴퓨터소프트웨어학과 부교수

신지호 | 경찰대학 치안정책연구소 과학기술연구부 연구관

 

인공지능(AI)은 기술적 발전과 서비스 실현을 중심으로 광범위한 논의가 이루어지고 있다. 이제는 AI 시스템 개발에 윤리적 고려가 필요한 단계다. AI 시스템의 도입 및 활용에 있어서 사회적 우려를 최소화하기 위해 데이터, 모델, 서비스 정책뿐만 아니라 AI 시스템 출력 결과의 사용, 사회적 영향 등에 이르기까지 다양한 시각에서 윤리적 질문을 던질 필요가 있다.

치안 분야에서도 과거의 범죄 데이터 등을 기반으로 범죄 발생 가능성이 높은 지리적 영역이나 개인을 식별하기 위한 AI 기반 예측적 치안 시스템을 도입하고 있다. 그러나 윤리적 판단에 기반한 원칙 없이 특정 대상을 감시 및 통제하는 치안 강화 방식은 사생활 침해, 판단 결과의 공정성 등에서 이슈가 발생할 수 있다. 본 고에서는 예측적 치안 시스템과 관련한 AI 윤리의 필요성에 대해 논해본다.

AI 기반 예측적 치안을 통한 경찰 활동 확대

사회의 지속적인 발전이라는 목표를 두고 사회 안전과 치안 유지를 위해 각 국가의 정부는 경찰력을 강화하고 있다. 현대 사회에서 경찰이 담당해야 하는 사건 및 민원 유형이 다양화되고 수가 증가하면서 한국에서도 경찰 인력 충원의 필요성이 지속적으로 대두되고 있다.

경찰관 수를 늘리는 것도 필요하지만 경찰력을 효과적으로 활용하기 위해 첨단 치안 기술의 도입은 필수적이다. 과거의 데이터를 기반으로 미래의 추세나 이벤트를 예측하여 경찰 활동의 목표에 맞게 자원을 잘 할당할 수 있다면, 여러 측면에서 치안 서비스가 개선될 수 있기 때문에 AI 기술 도입이 필요하다.

예측적 치안(Predictive Policing)은 데이터 기반 예측 정보를 활용해 경찰력이 법 집행 활동을 하는 것을 의미한다. 미국, 영국 등에서는 10여 년 전부터 범죄 빅데이터 분석 결과를 순찰, 수사 등의 경찰 활동에 활용해 왔다. 최근 AI 등의 디지털 기술의 발전은 경찰 시스템 및 치안 서비스의 지능화를 이끌고 있다.

‘수동적 범죄 예측(Passive Crime Prediction)’이 비실시간 경찰 빅데이터를 통계·분석하여 범죄 패턴을 검출하고 경찰력 개입을 결정하는데 활용되었다면, AI 기술이 사용되는 ‘능동적 범죄 예측(Active Crime Prediction)’은 순찰, 수사 등의 경찰 활동 현장 가까이에서 실시간으로 데이터를 수집하고 경찰 빅데이터 및 접근 가능한 공공 데이터를 종합적으로 분석하여 범죄 및 위험 상황을 예측한 정보를 현장 경찰에게 전달함으로써 상황에 재빨리 대응하는 데에 활용된다.

AI 기술을 활용하는 치안 시스템에서는 범죄 상황에 신속하게 대응할 수 있는 가능성이 증가한다. 정보통신기술(ICT)은 그동안 치안 현장의 시스템 및 도구들을 개선해왔다. 그러나 법 집행 및 사법 절차에 데이터 기반 AI 알고리즘을 사용하는 것에는 사회적 우려가 있는 것도 사실이다.

과거의 범죄 데이터 등을 기반으로 범죄 발생 가능성이 높은 지리적 영역이나 개인을 식별하여 윤리 원칙 없이 특정 대상을 감시 및 통제하는 치안 강화 방식은 사생활 침해, 공정성 등의 이슈가 발생할 수 있다. 또한 AI 시스템의 예측 정보를 사용하는 경찰관의 심리와 차별적 판단(성별, 연령, 장애 및 기타 형태의 상황)에 따른 법 집행도 사회적 이슈가 될 수 있다.

AI 시스템의 도입 및 활용에 대한 사회적 우려를 최소화하기 위해 데이터, 모델, 서비스 정책뿐만 아니라 AI 시스템 출력의 사용, 사회적 영향 등에 이르기까지 다양한 시각에서 윤리적 질문을 던질 필요가 있다.

AI 서비스가 차별적 또는 불합리한 결과를 발생시키지 않기 위해서는 AI 시스템이 어떻게 구성되고 동작되어야 하는지가 논의되어야 한다. 데이터 기반 AI 기술이 사회적으로 유익한 서비스를 제공할 수 있지만, 그 기술적 사용에 있어서 부정적 결과를 초래하는 잠재적 위험 요인들을 간과해서는 안 된다.

AI 윤리에 대한 국제적, 국가적 논의의 시작

AI 기술이 사회의 여러 분야에 활용되며 다양한 서비스가 등장함에 따라, 최근에 IEEE, ACM 등은 AI 기술 우려를 해소하고자 AI 기반 시스템 설계 및 구현을 위한 윤리 가이드라인, 윤리 표준 등에 대한 논의(예: IEEE P7000 등)를 주도하고 있다. ‘AI 윤리(AI Ethics)’는 윤리적 문제를 인식하고 해결하기 위한 AI를 설계하는 것과 다양한 AI 응용 프로그램의 결과에 의한 자동화된 의사 결정의 가치와 영향 모두를 고려한다.

전체 기사를 보시려면 로그인 필요

로그인 또는 회원가입을 해주세요. (회원만 열람가능)

로그인 회원가입


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.