지능형 비디오 분석을 위한 적응적 배경 생성 기반의 이상행위 검출
상태바
지능형 비디오 분석을 위한 적응적 배경 생성 기반의 이상행위 검출
  • CCTV뉴스
  • 승인 2012.02.03 00:00
  • 댓글 0
이 기사를 공유합니다

지능형 비디오 분석 시스템은 불특정 다수의 객체가 가지는 행동을 분석하고, 불의의 사고를 사전에 예측하여 관리자에게 경고를 전달하는 기술을 필요로 한다. 본 고는 적응적으로 배경을 생성하여 월담, 실신, 버려진 물체, 배회와 같이 사전에 정의된 이상행위를 분석하는 기술을 제안한다. 제안된 비디오 분석 시스템은 배경 생성과 이상 행위 분석 모듈로 구성된다. 강건한 배경 생성을 위해서 영상 내의 움직임 변화를 검출하여 매 순간마다 움직임이 없는 영역을 지속적으로 갱신하고, 이를 기반으로 객체를 검출한다. 또한 객체 검출의 정확성을 높이기 위해 검출된 결과에서 잡음과 그림자 제거 단계를 추가하였다. 이상행위 분석 모듈에서는 검출된 객체로부터 무게 중심, 실루엣, 크기, 이동 궤적 정보를 추출한다. 이때 이상행위의 판단은 월담, 실신, 버려진 물체, 배회에 따라 시나리오 환경으로 구성하고 분석하였다. 실험 결과에서 제안된 시스템은 복잡한 배경 환경에서도 이동 객체 검출 및 이상행위 분석이 가능하였다.


김 태 경 중앙대학교 첨단영상대학원 시각 및 지능시스템 연구실


이 승 원 중앙대학교 첨단영상대학원 석사과정 재학중


백 준 기 중앙대학교 첨단영상대학원 영상공학과 교수


유 장 희 한국전자통신 연구원


최근 공항, 철도, 항만, 공공시설, 유아시설, 터널, 지하철, 대형마켓, 백화점과 같은 장소에서 범죄나 테러, 폭행, 미아, 납치 등에 대한 강력 범죄 및 사건사고가 끊임없이 발생되고 있다. 이를 보안하기 위해 CCTV 보급이 점차적으로 확대되고 있고 관련된 연구도 활발하게 진행되고 있다. 기존의 CCTV 시스템 환경에서 범죄 및 사건사고 예방은 관리자의 주관적 판단에 의존하는 단순한 모니터링에 불과하였다. 모니터링 시스템의 경우는 관리자가 여러 대의 모니터를 직접 육안으로 관측 및 감독하기 때문에 집중력이 저하되는 문제가 발생한다. 최근에는 이러한 문제점을 해결하기 위해서 비디오 분석시스템이 필요하게 되고 지능화된 비디오 분석시스템이 출현하게 된 원동력이 되었다.
지능형 비디오 분석시스템은 도심의 상습적 범죄자들과 테러리스트를 감시하기 위해 도입되었고, 뉴욕에서는 실시간 감시가 가능한 범죄 센터를 갖추고 있다. 뉴욕 센터에서는 수백만 건의 정보를 신속하게 검색하여 데이터 간의 상관도를 분석함으로써 2008년 범죄율이 27% 감소하였다. 이러한 사례를 바탕으로 최근 시카고에서는 Virtual Shield System (VSS)을 설치 운영하여 강력범죄에 대응하고 있다. 이와 같은 지능형 비디오 분석시스템들은 환경 혹은 대상에 따라 감시 기능들이 개발되고 있다[1]. 대표적으로 Bosch는 Intelligent Video Analysis(IVA)가 탑재된 카메라를 통해 차량 정체, 화재 및 각종 유고 상황을 영상운영 시스템으로 담당자에게 즉각적으로 인지 및 대처할 수 있는 시스템을 개발하였다[2]. IBM의 Smart Surveillance System(S3)는 영상저장, 영상분석, 감시 어플리케이션으로 구성되어 CCTV를 통해 전달되는 영상이 관리 서버로 전송되고 설정된 기능에 따라 모니터에 이벤트가 발생하게 된다. 이때 감시 어플리케이션에서 영상분석 솔루션을 통해 영상검색 및 이벤트 통계 관리가 가능케 하여 관리자의 업무 효율을 높여주는 시스템을 개발하였다[3].
본 고에서는 적응적 배경 생성을 통해서 객체를 검출하고, 검출된 객체의 이상행위를 검출하는 비디오 분석시스템을 제안한다. 객체의 이상행위는 월담, 버려진 물체, 실신, 배회에 대한 4가지 속성으로 분류하고 판별 조건에 따라 특정 이상행위를 검출한다. 제안된 시스템은 크게 두 모듈로 구분되고, 첫 번째 모듈은 적응적 배경 생성기반 객체 정의 및 검출이며 영상 내의 움직임 변화를 관측하여 매 순간마다 움직임이 없는 영역을 갱신하고 환경변화에 적응적으로 배경영상을 생성한다. 또한 검출된 객체로부터 그림자와 잡음을 제거함으로써 객체 검출의 정확성을 향상시킬 수 있다. 두 번째 모듈에서는 환경에 따른 이상행위 검출로 첫 번째 모듈에서 검출된 객체에 대해서 무게 중심, 실루엣, 크기, 이동 궤적을 추출하여 사전에 정의된 월담, 버려진 물체, 실신, 배회에 대한 이상행위의 검출이 가능하다.
본 고의 구성은 다음과 같다. 2장에서 관련연구, 3장에서는 적응적 배경생성 기반 객체 정의 및 검출, 4장은 제안된 이상행위 정의 및 검출, 그리고 5장은 이상행위에 대한 실험 및 분석결과이다. 마지막으로 6장에서는 결론 및 향후 계획을 말한다.


지능형 비디오 분석 관련연구

지능형 비디오 분석시스템은 의미 있는 정보를 정의, 해석, 모델화, 추정 및 추적 할 수 있는 기술을 의미한다. 대부분의 지능형 비디오 분석시스템에서 감시 대상은 주로 사람 또는 차량이며, 상황에 따라 관심 영역을 설정하기도 한다. 이때 관심영역 내에 존재하는 객체는 실루엣, 행동 특성, 움직임, 색상정보를 가지고 객체를 정의하고 패턴화하여 대상 객체를 검출, 추적 및 인식하게 된다. 기존의 객체 분석을 위해 자주 사용하는 방법으로 능동형태모델[4] (active shape model)과 능동윤곽모델[5] (active contour model)이 있다. 이 방법들은 사전에 객체를 정의할 때 형태 정보를 모델화하여 영상 내에 동일한 형태를 갖는 대상을 찾는다. 하지만 모델링 과정에서 객체 위치와 크기는 카메라 위치에 따라 다르게 표현되므로 객체에 표현된 형태 정보를 위해서 지속적으로 갱신이 필요하다.
실시간 환경에서 인접 영상간 차분과 움직임 정보를 결합하여 배경영상을 생성하여 복잡한 환경에서도 적응적으로 배경 생성 및 갱신이 가능한 방법이 [6]에서 제안되었다. 표 1은 기존의 지능형 비디오 분석시스템 및 이상행위 검출에 대한 특성을 분류하였다.


Velastin[7]와 Bird[8]는 대중교통관제 시스템을 개발하였다. 이 시스템에서는 화소 단위의 처리와 움직임 정보를 결합한 방법으로 배경 영상을 추정하였다. 화소 처리 과정에서는 배경추정 방법에서 가장 유용하게 사용하고 있는 가우시안 혼합 모델(Gaussian mixture model; GMM) 방법으로 배경과 객체를 분리하고 분리된 객체에 대해 움직임 정보를 이용하여 검출하였다. 하지만 객체와 배경 분리단계에서 객체 분포가 많을 경우 부정확한 객체 검출 결과를 갖게 되고 움직임 위치도 함께 변화되어 시스템 성능에 오류를 발생시킬 수 있다.
Spagnolo[9]는 버려진 물체와 사라진 물체를 검출하기 위해서 연속되는 프레임을 평균하여 배경을 생성한다. 하지만 배경생성 이후 갱신을 하지 않기 때문에 정확한 객체 검출이 어렵고, 에지 결과에 의존성을 갖기 때문에 복잡한 환경에서 부정확한 검출을 갖는 원인이 된다.
Yu와 Aggarwal[10]는 실루엣으로부터 사람의 신체부위를 찾기 위한 variable star-skeleton representation (VSS)에 기반한 의미론적인 자세 해석으로 인간행위의 인식 방법을 제안하였다. 이 방법은 미리 정의된 행위의 집합을 이용하여 다양한 행위를 인식할 수 있는 장점이 있다. 하지만 복잡한 환경에서 적용하기 어렵다.
Singh[11]는 근사화된 미디언 모델(approximate median model)을 사용한 배경생성을 사용하고 있으며, 독립적으로 0.5초와 20초 주기로 각각에 대해 배경영상을 생성한다. 하지만 배경영상과 달리 환경적 변화에 민감하여 차분 결과에서의 부정확한 객체 검출이 문제점으로 지적된다. 따라서 제안된 시스템은 이상행위의 검출 성능을 향상시키기 위하여 배경생성, 이동객체 무게 중심, 실루엣, 크기, 이동 궤적, 불변 모멘트 등의 객체 특징 정보를 새롭게 정의하고 추출하여 지능형 비디오 분석의 중요한 목표가 되는 월담, 실신, 버려진 물체, 배회의 이상행위를 검출하는 방법을 제안한다.

적응적 배경 생성기반 객체 정의 및 검출

제안된 지능형 비디오 분석시스템 구조는 그림 1과 같고, 두 모듈로 나뉜다. 첫 번째 모듈은 인접 프레임 간의 움직임 정보를 추출하여 배경성분만 갖도록 계산한 후 적응적으로 배경을 생성한다.
이때 정확한 객체 검출을 위해 수리형태학적 연산으로 잡음을 제거하고 밝기 왜곡(brightness distortion; BD) 방법[12]을 사용하여 그림자를 제거한다. 객체를 판단하는 기준으로 무게 중심, 실루엣, 크기, 이동 궤적, 불변 모멘트를 객체 특징 정보로 정의한다.



1. 적응적 배경 생성기반 객체 검출

본 고에서 제안한 배경생성기반 객체 검출 방법은 그림 2와 같다. 배경 생성은 움직임 정보를 이용하여 설정된 임계치보다 적은 경우에 대해서 배경 성분으로 판단한다.



움직임이 보상된 차분 에너지는 인접한 두 영상간의 유클리디언 거리를 사용하여 다음과 같이 정의한다.


여기서는
시간 에서의 입력영상이고,
는 이전 영상이다. 이때
은 
에서의 각 화소이고,
 와
는 각각
에서의 변위와 윈도우 크기를 나타낸다. 이때  
 가 설정된 임계치
 보다 작으면 해당 화소를 배경으로 갱신한다. 본 고에서는 임계값을 1.0으로 설정하였으며 다음과 같이 기존 배경과 현재 영상을 혼합하여 생성된다.



여기서
는 시간  
에서의 생성된 배경 영상을 나타내고,
는 범위 [0,1]을 가지는 배경 혼합 비율이다.
객체는 다음과 같이 생성된 배경과 입력영상의 차분에 의해 검출된다.



여기서 
는 배경영상과 입력영상 간의 차분에 따른 검출 결과이며, 차분 결과가 임계값 
보다 큰 경우는 객체로 판단한다.
객체 검출의 정확성을 향상시키기 위해 수리형태학적 연산으로 잡음을 제거하고, Lei와 Xu[12]가 제안한 방법을 개선하여 그림자를 제거하였다. 제안된 방법은 밝기 변화를 사용하는 밝기 왜곡(brightness distortion; BD)에다 그림자 밝기 왜곡(shadow brightness distortion; SBD)과 하이라이트 밝기 왜곡(highlight brightness distortion; HBD)을 추가로 적용하여 그림자 영역을 찾은 후에 제거한다. BD, SBD, HBD의 계산은 각기 다음과 같다.


여기서
는 입력영상의 각 색상 채널이며, 
는 배경영상의 색상 채널이다. 그리고
는 
에서
로의 색상변환에서
성분으로 변환하는 값으로
이다.
이 값을 이용하여 최종 차분 영상 
을 계산한다.


여기서
는 
의 임계값으로
의 값으로 설정되고 
의 임계값로
의 값으로 설정된다.
그림 3(c)는 그림자가 검출된 차분영상으로 분홍색이 검출된 그림자 영역으로 그림 3(d)와 같이 그림자가 제거된 객체를 검출할 수 있다.




객체 검출 및 특징 정보 추출
(1) 객체 특징 정의
검출된 객체의 특징 정보는 무게중심, 실루엣, 크기, 이동 궤적, 불변 모멘트로 정의한다. 이때 무게중심, 실루엣, 크기, 불변 모멘트 정보는 객체 검출 결과로부터 추출한다. 무게 중심, 실루엣, 크기 정보는 인접 프레임 간의 동일 객체를 판단하는 기준이 되며 판단된 동일 객체의 무게 중심으로 객체의 이동 궤적을 갱신한다.
영상에서 검출된 객체는 이전 프레임의 객체와 특징을 비교하여 총 오차값이 가장 작은 객체를 동일한 객체라고 판단한다. 이때 총 오차 값(
)는 식 (6)과 같다.


여기서
는 객체 크기, 무게중심, 실루엣의 가중치 값이며, 그 합은 1이다. 
는 객체 크기, 무게중심, 실루엣에 대한 오차 값이다. 무게중심의 오차
는,


여기서 
는 객체의 무게 중심 좌표이며,
는 이전 객체의 무게 중심 좌표이다.
비정형 객체는 연속된 영상에서 크기 변화를 갖기 때문에 동일한 개수의 성분을 추출하여 사용한다. 실루엣 추출은 외곽 성분에 대해서 5°씩 회전시켜 추출한다. 최대 외곽 성분의 총 오차
는 다음과 같이 계산된다.


여기서
은 외곽 성분의 총 개수이다.
는 현재 검출된 객체의 외곽 성분이고,
는 이전 검출된 객체 외곽성분이다. 크기에 대한 오차는 이다.


여기서 
는 객체의 크기를 나타내는 가로와 세로이다. 
는 이전 객체의 크기이다. 식 (6)에 의해서 총 오차(
)를 계산하여 가장 적은 오차 값으로 영상 내에서 동일한 객체로 판단한다. 이 결과로 무게중심은 이동 궤적 정보로 활용된다.


그림 4는 정의된 객체의 무게 중심, 실루엣, 크기, 이동 궤적의 결과를 나타내었다. 그림 4(e)는 총 오차(
)에 따라 계산된 동일 객체와 이동궤적을 나타낸다.

(2) 불변 모멘트
Hu[13]가 제안한 불변 모멘트는 객체의 모든 화소 정보를 이용하여 7개의 모멘트 계수 값으로 분류하는 방법을 제안하였다. 따라서 본 고에서는 객체 정보 중의 하나로 불변 모멘트를 정의하고 버려진 물체와 실신 행위를 구분하는데 사용한다.
불변 모멘트는 2차원 영상을 함수
의 형태로 정의하여 기하학적 모멘트를 구하며, 영상 이동에 불변하도록 중심 모멘트를 계산하고 정규화된 중심 모멘트를 사용하여 크기, 회전, 이동, 대칭 변환에 불변한 모멘트를 생성한다. 기하학적 모멘트는 다음 같이 정의된다.


여기서
는 0과 같거나 큰 정수이며,
는 모멘트의 차수이다. M, N은 각각 영상의 가로와 세로 크기이다. 일반적인 기하학적 모멘트는 영상이 이동하면 위치에 따른 오차 때문에 영상의 무게 중심이 변형되므로 중심 모멘트를 계산한다. 이때 기하학적 모멘트에서 낮은 차수 값으로 무게 중심 계산을 다음과 계산한다. 


 여기서,
는 영상의 무게 중심이고, 중심 모멘트는 다음과 같이 정의한다.


식 (12)를 비선형 조합하여 크기, 회전, 위치에 불변한 모멘트를 갖도록 정규화된 중심 모멘트를 계산한다.


여기서 γ는 다음과 같이 정의된다.
마지막으로 7개의 불변 모멘트는 정규화된 중심모멘트   
을 사용하여 계산된다.





여기서 ø1, ø2, …, ø7는 7개의 모멘트 차수를 나타낸다. 

 


표 2는 물체와 사람에 대하여 불변 모멘트를 계산한 결과를 나타내었다. 표 2에서 비교한 물체와 사람은 그림 5(a)의 입력영상에서 추출된 객체로 그림 5(b)의 정형 객체인 물체와 그림 5(c)의 비정형 객체인 사람에 대해 각각 모멘트를 계산하였다. 표 2는 계산된 두 객체의 모멘트 값의 차이를 보인다. 본 고에서는 물체와 사람을 구분하기 위해 이동, 회전, 크기, 대칭 변환에 불변한 특징을 갖는 불변 모멘트를 사용하고 모멘트 값에 따라 버려진 물체와 실신을 구분한다. 


 이상행위 정의 및 검출
본 고에서 제안하는 이상행위는 월담, 버려진 물체, 실신, 배회의 네 가지 특징으로 분류 및 정의한다. 3절에서 소개한 적응적 배경생성기반 객체 정의 및 검출 결과로부터 시나리오 환경에 따라 이상행위를 검출하고 정보를 표현한다. 이때 제안된 객체 특징 정보는 동일 객체 판단에 대해 이동 궤적과 함께 이상행위 정보도 갱신한다.
 
1. 월담
월담 행위는 사전적 의미로 "담장을 넘는 행위"이며, 제안된 월담 행위는 주거지역의 담장 또는 울타리와 같은 환경 내에 특정 객체가 넘는 행위를 의미한다. 월담 행위 검출은 사용자가 관심 영역(region of interest; ROI)을 정의하고 영역 내에 무게중심과 비교 분석하여 판단한다. 이때 ROI는 입력된 영상 내에 선을 그려서 활성 영역과 후보 영역으로 분할한다. 월담 행위 과정 및 결과는 그림 6과 같고, 객체 정의에 따라 무게중심, 이동 궤적, 실루엣으로 나타내었다. 그림 6(c)에서 객체 A는 정상적인 행위를 갖는 보행 객체이고 객체 B는 월담 행위가 검출된 결과를 보인다.







2. 버려진 물체 및 실신

일정한 시간 동안 보행 객체가 갑자기 넘어져서 움직임이 없는 경우에 대해 실신 행위로 정의한다. 반면 버려진 물체는 물체가 특정한 지역에 놓여져 장시간 노출된 경우이다. 버려진 물체는 공공장소에서 이상 행위자에 의한 폭발물을 비롯한 위험물 투기 및 방치에 의한 객체로 정의되며 지능형 감시 시스템에서 많은 연구가 진행되고 있는 분야로 본 고에서는 이상행위의 한 가지 행위로서 분류한다. 이와 같이 객체의 움직임 변화가 없는 정적인 객체에 대해 우선적으로 버려진 물체로 간주하고 불변 모멘트에 따라 실신 행위로 판단한다.
본 고에서는 버려진 물체와 실신 행위를 검출하기 위해서 Lei와 Xu[12]가 제안한 다중 배경방법을 개선해서 이용한다. Lei와 Xu가 제안한 다중 배경방법은 현재 영상의 배경과 과거에 생성된 배경간의 변화를 관측하는 방법이다. 제안된 방법에서는 불변모멘트를 이용하여 버려진 물체와 실신 행위를 판단한다. 버려진 물체와 실신 행위의 알고리듬은 표 4와 같다.

버려진 물체와 실신 행위 검출은 후보 객체의 무게 중심이 10초 이상 변화가 없는 경우에 최종 후보 객체로 설정한다. 행위에 대한 판단 기준은 버려진 물체와 실신의 불변 모멘트를 계산하여 구분한다.


3. 배회

배회의 사전적 의미는 "어슬렁거리다. 이러저리 돌아 다닌다."의 표현으로, 본 고에서는 영상 내에 객체가 동일한 블록을 반복적으로 발생 할 때 배회 행위의 특성으로 간주한다. 배회 행위 검출은 입력 영상을
크기로 분할하고 이동 궤적을 관측하여 블록기반의 이동 객체 검출방법을 사용한다. 배회 판단 기준은 임의의 설정된 카운트 값 이상의 매크로 블록을 선택하고 전체 매크로 블록(
)에서 동일한 값을 갖는 3개 이상의 매크로 블록이 검출되면 배회 행위로 판단한다.



배회 행위 분석 및 결과는 그림 7과 같다. 그림 7(b)에서 보라색 매크로 블록은 보행 객체를 의미하고, 주황색 매크로 블록은 임의의 설정된 카운트 값보다 크고 동일한 매크로 블록 카운트 값이 3개 이상인 블록으로써 배회 객체를 말한다. 그림 7(c)는 입력 영상에서 가상의 매크로 블록 단위로 분할된 구조를 보이고 시스템 내부에서만 처리된다. 이로써 그림 7(d)와 같이 객체 A는 판단 조건에 따라 보행 객체이고 객체 B는 배회 행위 검출된 객체이다.       

이상행위에 대한 실험 및 분석결과

제안된 시스템은 인텔 코어 i7 환경에서 Visual Studio 2008을 사용하여 구현하였다. 실험 영상은 Sony CCD 캠코더를 사용하여 영상을 취득하였고, 버려진 물체의 실험은 AVSS(Advanced Video and Signal-Based Surveillance) 데이터 셋[15]으로 실험하였다. 모든 실험영상 크기는 320×240이며 초당 24 프레임(frames per second; FPS) 이상 사용하였다.


1. 이상행위에 대한 실험 및 분석
제안된 이상행위 검출 및 실험은 사전에 정의된 시나리오 환경에서 분석하였다. 월담의 실험은 울타리 혹은 주거용 담장에 관심 영역을 설정해 활성 영역과 후보 영역으로 구분하고 판단 조건에 따라 검출하였다. 그 결과는 그림 9과 같다. 그림 9(g)는 후보 영역에 존재하던 객체가 활성 영역으로 넘어가기 전의 행동을 보이며, 그림 9(h)는 활성 영역으로 넘어간 객체의 실루엣을 적색으로 표현하여 월담 행위로 판단된 결과이다.





버려진 물체와 실신 실험분석은 다중 배경생성방법을 사용하여 정적인 후보 객체를 선택하고, 10초간 무게 중심의 변화를 관측하고 불변 모멘트를 이용하여 버려진 물체와 실신 행위를 구분하였다. 그림 10은 AVSS 실험 영상으로 버려진 물체를 검출한 결과를 나타내었다. 이때 물체 위치에서 30초간 지속되어 정적인 객체로 판단되어 버려진 물체로 검출되었다.
그림 11는 실신 행위의 실험 결과로 불변 모멘트를 이용하여 버려진 물체로 간주할 수 있는 주차된 차량들 및 도로 안내 도구 등과 분리해 인식 가능함을 보인다.
배회 행위의 검출은 입력영상을 동일한 크기의 매크로 블록(
)으로 분할하고 이동 객체의 궤적 정보를 이용하였다. 그림 11은 배회 행위의 실험 결과로써 배회하는 객체가 분할된 블록 영역에 반복적으로 진입하는 판단 조건에 따라 검출된 결과를 나타내었다. 그 결과를 그림 11에 보인다. 그림 11(f)에서 30초간 배회 이상행위 검출이 지속적으로 관측된 결과를 확인하였다.


2. 무게 중심과 이동 궤적 분석
본 절에서는 객체 검출에 의한 무게 중심의 정확도를 실제 객체의 무게 중심과 비교 실험하였다. 이때 실제 객체의 무게 중심은 입력된 영상에서 객체를 추출하여 계산된 값이다.

    


그림 12와 13은 제안된 방법의 이상행위 검출결과에 따라 검출된 무게중심과 실제 무게중심 간의 유사 분포 곡선을 보인다. 그림 12는 월담 이상행위 검출 결과로 구간내의 평균오차는 2.3이다.
그림 13는 배회 이상행위 검출결과로 구간 내의 평균 오차는 2.1이다. 그 중에서도 1300번째 영상에서 잡음으로 인해 실제 배회 검출 오차가 다른 구간보다 크게 나타났다.

결 론

본 고는 적응적 배경생성기반 지능형 비디오 분석시스템으로 월담, 버려진 물체, 실신, 배회의 이상행위를 분석하는 방법을 제안하였다. 제안된 방법은 크게 두 모듈로 구분하였고, 첫 번째 모듈에서는 적응적 배경 생성기반 객체 정의 및 검출이고 두 번째 모듈에서는 이상행위 검출이었다. 실험 결과 적응적 배경생성에 따라 객체 검출의 정확성을 높였고, 정의된 이상행위 판단에 따라 월담, 버려진 물체, 실신, 배회 검출이 가능하였다.
본 고의 기여도는 다음과 같다. 첫 번째는 적응적 배경 생성과 그림자 제거로 객체 검출의 정확성을 높였다. 두 번째는 이상행위 판별로 월담 행위는 영상을 활성영역과 후보영역으로 분할하여 행위자를 효율적으로 판별하였고, 버려진 물체와 실신은 불변 모멘트를 통하여 오검출을 제거하였고, 배회는 영상을 매크로 블록으로 나누어 배회의 정도를 판단하였다. 세 번째는 제안된 네 가지 이상행위에 대해 동시에 검출이 가능하다.
향후에는 이상행위의 실험 영상을 보다 많이 구축하여 이상행위에 대한 성능을 분석하고자 한다.


 [참고문헌]

[1] 원병철, "스토리지 활용한 보안시스템 구축사례," 월간 시큐리티 월드, 제 157권, 42-43쪽, 2010년 2월
[2] 임현주, "2010년 이 기업을 주목하라," 월간 CCTV 저널, 제 12권, 69-84쪽, 2010년 1월
[3] A. Hampapur, S. Borger, L. Brown, C. Carson, J. Connell, M. Lu, A. Senior, V. Reddy, C. Shu, and Y. Tian, "S3: the IBM smart surveillance system: from Transactional systems to observational systems," Proc. Int. Conf. Acoustics, Speech and Signal Processing, Vol. 4, pp. 1385-1388, April 2007.
[4] T. Cootes, C. Taylor, D. Cooper, and J. Graham, "Training models of shape from sets of examples," Proc. Int. Conf. British Machine Vision, pp. 9-18, September 1992.
[5] A. Koschan, S. Kang, J. Paik, B. Abidi, and M. Abidi, "Color active shape models for tracking non-rigid objects," Pattern Recognition Letters, Vol. 24, pp. 1751-1765, July 2003.
[6] T. Kim, J. Im, and J. Paik, "Video object segmentation and its salient motion detection using adaptive background generation," IET Electronics Letters, Vol. 45, pp. 542-543, May 2009.
[7] S. Velastin, B. Boghossian, B. Lo, J. Sun, and M. Vicencio-Silva, "PRISMATICA: toward ambient intelligence in public transport environments," IEEE Trans. Systems, Man, Cybernetics, Vol. 35, no. 1, pp. 164-182, January 2005.
[8] N. Bird, O. Masoud, N. Papanikolopoulos, and A. Isaacs, "Detection of loitering individuals in public transportation areas," IEEE Trans. Intelligent Transportation Systems, Vol. 6, no. 2, pp. 167-177, June 2005.
[9] P. Spagnolo, A. Caroppo, M. Leo, T. Martiriggiano, and T. D''Orazio, "An abandoned/removed objects detection algorithm and its evaluation on PETS datasets," Proc. Int. Conf. Video, Signal Based Surveillance, pp. 17-21, November 2006.
[10] E. Yu and J. Aggarwal, "Human action recognition with extremities as semantic posture representation," Proc. Int. Conf. Computer Vision, Pattern Recognition, pp. 1-8, June 2009.
[11] A. Singh, S. Sawan, M. Hanmandlu, V. Madasu, and B. Lovell, "An abandoned object detection system based on dual background segmentation," Proc. Int. Conf. Advanced Video, Signal Based Surveillance, pp. 352-357, September 2009.
[12] B. Lei and L. Xu, "Real-time outdoor video surveillance with robust foreground extraction and object tracking via multi-state transition management," Pattern Recognition Letters, Vol. 27, pp. 1816-1825, November 2006.
[13] M. Hu, "Visual pattern recognition by moment invariants," IRE Trans. Information Theory, Vol. 8, no. 2, pp. 179-187, February 1962.
[14] i-LIDS dataset for AVSS 2007.


※본 연구는 2010년도 정부(교육과학기술부)의 재원으로 한국연구재단의 지원(2009-0081059)과 지식경제부 및 정보통신산업진흥원의 대학 IT 연구센터 지원사업의 지원(NIPA-2010-C1090-1011-0010)의 연구결과로 수행됨과 함께 전자공학회에 게재된 논문을 바탕으로 정리한 것임을 알려드립니다.

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.