CCTV 영상에서의 얼굴 인식 기술 소개
상태바
CCTV 영상에서의 얼굴 인식 기술 소개
  • 이수진
  • 승인 2012.10.08 00:00
  • 댓글 0
이 기사를 공유합니다

연 재 순 서
1. CCTV 영상에서의 얼굴 검출 기술 소개
2. CCTV 영상에서의 얼굴 인식 기술 소개

3. CCTV 영상에서의 고성능 얼굴 인식엔진 설계 및 구현
4. 얼굴인식 기술의 성능 분석
5. 얼굴인식 기술의 상용화 동향

1. 서론
CCTV 환경이 급속도로 발전하면서 지능형 영상감시 기능의 필요성이 매우 증가하고 있다. 특히 지능형 영상감시를 위해 CCTV 영상에서 얼굴을 자동으로 인식하기 위한 기술적 요구가 폭발적으로 증가하고 있다. 그러나 카메라로부터 입력된 영상을 대상으로 얼굴을 자동으로 인식하기 위한 연구가 국내외적으로 20여년 이상 진행되어 왔지만 여전히 만족할 만한 상용제품을 찾아보기가 어려운 것이 현실이다. 얼굴 인식 기술은 여전히 진화되고 있고 여전히 도전할 만한 가치가 있는 연구개발 영역으로 알려져 있다.

본 고에서는 얼굴 인식 기술 개발의 어려움, 얼굴 인식 기술의 성능 평가 방법 그리고 지금까지 얼굴 인식분야의 기술 발전에 큰 기여를 했던 PCA, EBGM 그리고 LBP 등 다양한 기술 개발 동향에 대해서 소개한다. 다음 호에서는 기존의 얼굴 인식 기술을 바탕으로 인식 성능을 더욱 개선시키기 위해 본 연구실에서 개발한 고성능 실시간 완전자동 얼굴 인식 기술을 소개할 예정이다.

2. 얼굴 인식 기술 개발의 어려움
카메라로부터 입력되는 영상의 화질은 블러링(blurring), 감마(gamma), 해상도(re solution) 그리고 조명(illumination) 등에 따라 달라질 수 있다. 이러한 화질의 변화와 더불어 얼굴의 표정(expression)변화, 포즈(pose)에 따른 회전(rotation) 그리고 나이가 들면서(aging) 자연스럽게 변화하는 얼굴 모습 등이 얼굴 인식 과제를 더욱 어렵게 만들고 있다.


[그림 1] 얼굴 인식 기술 개발을 어렵게 만드는 여러 상황들

동일한 인물의 얼굴 영상이 다양한 상황으로 입력되어 얼굴 인식 기술 개발을 어렵게 만드는 예를 [그림 1]에 도시하였다. 카메라 조건이나 외부 조명영향에 따라 얼굴 영상 화소에 변화가 생긴 경우 이를 보정하기 위한 영상 전처리(image pre-processing) 기술이 개발되어야 한다.

그리고 얼굴 포즈가 달라진 경우 회전 정보를 찾아서 똑바로 세우는 기술이 필요하며 표정 변화나 나이가 들어가면서 달라지는 얼굴 모습까지 인식하기 위해서는 인간이 사람을 인식할 때와 같은 원리로 얼굴의 특징(feature)을 기술(description)할 수 있는 방법도 개발되어야 한다.


[그림 2] 쌍둥이 및 부자간의 닮은 얼굴 예

얼굴 인식이 더욱 어려운 과제일 수밖에 없는 또 다른 이유는 [그림 2]와 같이 쌍둥이 또는 부모 자식 사이와 같이 사람의 눈으로도 얼핏 구분하기 어려울 정도로 동일하게 보이는 인물까지도 구분해야 하는 것이다.
얼굴 인식 연구 분야에서는 이러한 어려움을 극복하기 위한 연구 결과들이 계속 발표되고 있다.

3. 얼굴 인식 기술의 성능 평가

얼굴 인식 기술들의 성능을 평가하기 위해서는 표준 얼굴 영상 데이터베이스가 필요하다. 특히 얼굴 표정의 변화, 조명조건의 변화 그리고 해상도의 변화 등 얼굴 영상의 다양한 변화에 따른 인식 성능을 독립적으로 평가하기 위해 여러 기관에서 얼굴 영상 데이터베이스를 발표[9]하였다. 그러나 하나의 독립적인 상황만 강조해서 인식 성능을 평가할 경우 종합적인 인식 능력을 올바르게 평가할 수 없는 경우가 발생 할 수 있다. 즉, 조명 변화에 대한 보정만 강조할 경우 정상적으로 입력된 얼굴 영상의 명도 분포까지 달라질 수 있어서 종합적인 얼굴 인식 성능에 영향을 미칠 수 있다.
이러한 다양한 상황에서 입력되는 얼굴 영상에 대한 종합적인 인식 성능을 평가할 목적으로 다양한 Probe 영상 집합을 포함하고 있는 대표적인 인식 성능 평가용 얼굴 영상 데이터베이스가 [표 1]에 도시한 FERET 얼굴 영상 데이터베이스[3]이다.

[표 1] FERET Datavase Prove Category



[그림3] FERET 데이터베이스 얼굴 영상 샘플

FERET 얼굴 영상 데이터베이스는 1,196명의 얼굴 영상을 Gallery 집합으로 한 다음 Gallery 집합에 등록된 사람들이 다양한 조건에서 다시 촬영한 얼굴 영상으로 Probe 집합을 만든 것이다. Probe 집합 fb는 1,195명이 표정을 다르게 해서 촬영한 얼굴 영상, fc는 194명이 조명조건을 달리하면서 촬영한 얼굴 영상, dup1은 722명이 fa를 촬영한 이후에 1년 이내에 다시 촬영한 얼굴 영상들이고 dup2는 234명이 fa를 촬영한 이후 최소 1년 에서 3년 동안에 다시 촬영한 얼굴 영상들이다. 따라서 FERET 데이터베이스는 다양한 조건에서 입력된 얼굴 영상들에 대한 얼굴 인식 기술의 성능을 종합적으로 평가할 수 있으며 [그림 3]에 각 영상 집합들의 예를 도시했다.
일반적인 얼굴인식 과정에서는 얼굴의 위치를 대략적으로 추정하여 눈의 위치를 찾고 눈을 기준으로 얼굴 영역을 추출하여 지정한 규격으로 얼굴을 정규화한 다음 얼굴 피쳐를 계산하는 과정을 거치게 된다. FERET에서 제공한 두 눈의 좌표를 이용해서 이러한 과정을 거쳐 얼굴을 인식할 경우 부분 자동인식(partially automatic recognition)이라 하고 그 예를 [그림 4](a)에 도시하였다. 부분 자동인식 기술을 상용화 하기위해서는 두 눈의 위치를 찾는 기술을 별도로 개발해야한다. FERET에서 제공한 두 눈의 좌표를 이용하지 않고 얼굴 영상에서 피쳐를 계산할 경우 완전 자동인식(fully auto matic recognition)이라 하고 그 예를 [그림 4](b)에 도시하였다. 상용 얼굴 인식 엔진으로서의 성능 평가는 완전 자동인식 기술을 적용했을 때의 성능을 의미한다.
]

[그림 4] FERET 데이터베이스 영상에서 얼굴 피쳐를 추출하는 방법

4. 얼굴 인식 기술
얼굴 인식 기술의 발전 과정에서 기술적 의미와 인식 결과가 우수했던 세 가지의 기본적인 얼굴 인식 알고리즘에 대해서 소개한다. 즉, PCA(Principal Component Analysis)기반 고유얼굴(Eigenfaces)방식의 초기 얼굴 인식 알고리즘, 완전 자동 얼굴 인식 기술 구현이 가능한 EBGM(Elastic Bunch Graph Matching) 그리고 최근에 가장 많은 연구 결과들이 발표되고 있는 LBP(Local Binary Pattern) 등의 얼굴 인식 알고리즘들에 대해서 설명한다.

4.1 PCA기반 고유얼굴
PCA의 기본 원리는 데이터의 입력 공간(input space)을 표현하는 전체 차원(dimensions)에서 중요도 순서에 따라 적은 개수의 차원만 선택하더라도 그 데이터의 고유한 성질들을 잘 표현할 수 있다는 것이다. 따라서 수천 또는 수 만개의 차원으로 표현되어 있는 입력 데이터를 PCA기법에 따라 변환할 경우 수 십 또는 수백 개의 차원만으로도 데이터의 고유한 성질을 잘 표현할 수 있기 때문에 비교적 적은 데이터를 이용해서 고속으로 패턴의 특징 비교하는데 매우 효과적으로 사용될 수 있다.


[그림 5] 얼굴 영상에 PCA기법을 적용하는 원리

[그림 5]와 같이 100x100 크기로 정규화된 얼굴 영상의 경우 10,000개의 화소로 구성되어 있으며 각 화소를 하나의 차원으로 간주한다면 10,000개의 차원으로 구성된 입력 공간에 표현된 데이터로 볼 수 있다. 따라서 얼굴 영상 데이터에 PCA를 적용하여 10,000개의 차원을 100개의 차원으로 축소시킨다면 얼굴 영상의 고유한 설질을 잘 유지하면서도 그 특징을 100개의 값만으로 표현 할 수 있기 때문에 두 얼굴의 닮은 정도를 높은 신뢰 수준에서 고속으로 계산해 낼 수 있다. 

입력 공간의 차원을 줄이기 위한 고유벡터를 구하는 과정에서 PCA 계산 방식을 그대로 적용할 경우 비현실적인 크기의 공분산 행렬로부터 고유벡터를 구하는 과정이 포함되기 때문에 이를 현실적으로 처리할 수 있는 방안이 마련되어야만 한다. 1991년 Turk 와 Pentland[1]는 얼굴 인식 기술 구현을 위해 [그림 6]과 같이 PCA기반 고유 얼굴 계산 알고리즘을 발표하였다.

[1단계] 훈련용 얼굴 이미지 I1, I2, ..., IM를 준비한다. 이때 얼굴 영상들은 중심을 맞추고 크기를 같게 해야 한다.
[2단계] N×N 크기의 얼굴 영상 I를 N2×1 크기의 얼굴 벡터 Γ라 가정한다. 모든 얼굴 영상 Ii를 얼굴 벡터 Γi로 표현한다.

[3단계] 평균 얼굴 벡터 Ψ를 계산한다.  Ψ=         Γi

[4단계] 각 얼굴 벡터 Γi로부터 평균 얼굴 벡터 Ψ와의 차 Φ1=Γi-Ψ를 구한다.
[5단계] 공분산 행렬 C를 계산한다.
  
             C=         ΦnΦnT=AAT This is (N2×N2)  
 
                   Where, A = [Φ1, Φ2, ..., ΦM] This is (N2×M)
[6단계] AAT의 고유벡터 ui를 계산한다. 하지만 행렬 AAT는 매우 커서 실제로 행렬 계산을 하는 것이 어렵기 때문에 ATA의 고유벡터 ui를 계산한 다음 아래 방식으로 고유벡터 ui를 구한다. 여기서 ATAui=μiui로 표현되고 두 고유 벡터 ui와  ui 사이의 다음과 같은 관계를 이용하여 계산한다.
             ATAui = μiui ⇒ AATAui = μiAui ⇒
            CAui = μiAui  or  Cui = μiui   where μi  = Aui


        ATA의 M개 고유치 및 상응하는 고유벡터들은 AAT의 M개의 최대 고유치 및 상응하는 고유벡터들과 같다. 따라서 이 단계에서 AAT:ui = Aui 의 M개의 고유벡터를 구하고 ui를 로 ⅡuiⅡ = 1 정규화 한다. 

[7단계] 차원을 축소할 개수를 K로 정하고 K개의 고유치에 상응하는 K개의 고유 벡터들을 얻는다. 이 고유 벡터들을 고유 얼굴들(Eigenfaces)이라 부른다.


평균 얼굴 벡터를 뺀 얼굴 벡터  Φi=Γi -  Ψ를 K개의 고유벡터들의 선형 조합으로 표현할 수 있다.
                     ^Φi - mean =       wj uj, (wj =ujTΦi)                   (1)

훈련 얼굴 영상 집합으로부터 구한 고유 벡터를 고유치 크기에 따라 선택해서 이미지로 표현할 경우 [그림 7]과 같이 얼굴형태로 나타나기 때문에 이를 고유 얼굴이라 부른다.


[그림 7] 상위 10개의 고유치에 해당하는 고유 벡터를 영상으로 표현한 예

정규화된 각 얼굴 영상을 표현한 얼굴 벡터 Φi의 특징 벡터를 Ωi라 하며 얼굴 인식과정에서 이 특징 벡터를 해당 얼굴의 특징을 기록한 템플릿이라 부른다. 얼굴 영상의 특징 벡터  Ωi는 다음과 같이 표현할 수 있다.
Ωi =   w1i     ,  1, 2, ..., M    또는   Ω =   w11 w12 ... w1M           (2)
          w2i                                w21 w22 ... w2M
          w2i                                w21 w22 ... w2M
        ...                                       .............. 
          wKi                                wK1 wK2 ... wKM 
Gallery 집합에 있는 얼굴 영상들로부터 템플릿 즉, 특징 벡터 Ωi를 추출하여 저장하는 작업을 등록(enrollment)이라 부른다. Probe 집합에 있는 얼굴 영상, 즉 인식 대상 얼굴 영상을 표현한 얼굴 벡터 Γ가 주어졌을 때 이를 인식하는 과정은 [그림 8]과 같다.

[1단계] 인식 대상 얼굴 벡터 Γ를 정규화 한다. Γ:Φ = Γ-Ψ
[2단계] 고유 공간에 사영(projection) 한다.
             ^Φi  =       wj uj, (wj =uiTΦ)

[3단계] Φ를 인식 대상 얼굴 특징 벡터 Ω로 표현한다. Ω=   w1 
                 w2
                 ...
                 wk
[4단계] 미리 저장된 Gallery 집합의 특징 벡터들과 비교해서 최소l가 되는 을 찾는다. er =minlⅡΩ-ΩlⅡ
[5단계] 만약 er < Tr이면, Γ는 저장된 집합에 있던 얼굴 l로 인식이 된다.

콜로라도 주립대학에서 PCA 기반 고유 얼굴기법으로 FERET 데이터베이스에서 제공한 눈 좌표를 이용해서 부분 자동으로 얼굴을 인식한 결과[4]를 [표 2]에 도시하였다.

[표 2] PCA 기반으로 FERET 데이터베이스에서 제공한 눈 좌표를 이용해서 부분 자동으로 얼굴인식을 수행한 결과



PCA를 기반으로 한 고유 얼굴 기법의 얼굴 인식 알고리즘은 FERET fb 기준으로 인식 성능이 90%를 넘지 않고 있으며 부분 자동 얼굴 인식 알고리즘이기 때문에 실제 상용 인식 엔진으로 구현되기 위해서는 눈 좌표를 정확하게 찾는 기술이 별도로 개발되어야 한다는 특징이 있다.
그리고 등록한 얼굴 영상과 비교해서 조명이 변화되거나 포즈가 변화된 얼굴 영상을 인식하는 것이 어렵다고 알려져 있다. 그럼에도 불구하고 PCA기반 고유 얼굴 기법의 얼굴 인식 알고리즘은 인식 속도가 매우 빠르고 소프트웨어 구현 방법이 비교적 간단하며 오래 동안 얼굴 인식 기술로서 다양하게 발전되어 왔기 때문에 여전히 얼굴 인식 분야에서 주 인식 엔진(main recognition engine)에 대한 보조 인식 엔진(auxiliary recognition engine)으로 많이 사용되고 있다.  

4.2 Elastic Bunch Graph Matching (EBGM)
EBGM[2]은 얼굴 인식을 위한 처리 시간이 PCA에 비해 매우 길다는 단점에도 불구하고 완전 자동으로 얼굴을 인식할 수 있다는 가능성과 FERET 데이터베이스에서 매우 우수한 인식 성능을 보였다는 이유 등으로 얼굴 인식 분야에서 많은 주목을 받아온 기술이다. 최근까지도 EBGM의 기본 아이디어들을 활용한 다양한 얼굴 인식 알고리즘들[3,4]이 많이 발표되고 있다.

EBGM에서는 먼저 훈련용 얼굴 영상 각각에 대해 눈, 코, 입 등의 각 기준점(fiducial point)으로부터 웨이블릿 jets를 구해서 이를 노드로 하고 노드사이의 거리를 에지로 하여 [그림 9]와 같은 얼굴 그래프, FG(face graph)를 생성한다. 그 다음 다양한 개인들의 얼굴을 대표적으로 표현하기 위해서 훈련용 영상의 각 얼굴 그래프들의 특징을 모두 반영한 대표적인 얼굴 묶음 그래프,  FBG(Face Bunch Graphs)를 생성한다. 즉, 노드는 훈련용 얼굴 영상 각각으로부터 구한 얼굴 그래프 노드 jets들의 집합으로 표현하고 에지는 노드 사이의 평균 거리로 표현한 FBG를 만들 수 있다.
미지의 얼굴 영상이 입력되었을 때 얼굴 영상의 최적 FG를 구하기 위해 적절한 범위 내에서 FG의 기하학적 구조를 변형시키는 Elastic Bunch Graph Matching 과정을 통해 FBG와 가장 잘 정합(fitting)되는 얼굴 영상의 FG를 찾는다. 얼굴 영상에 가장 잘 정합된 FG의 각 노드에서 jets를 구하고 이를 얼굴 인식용 특징 템플릿으로 추출하였다. 이상에서 각 노드의 jets를 구하기 위해서 다음과 같은 Gabor 필터를 이용하였다.식(3)을 이용해서 8개의 방향과 5개의 주파수(필터 크기)로 40개의 필터를 생성하여 이미지로 표현한 것을 [그림 10]에 도시하였다.


[그림 9] 얼굴 그래프의 예


[그림 10] 가버 필터들을 이미지로 표현한 예

얼굴 영상의 각 노드에서 가버 필터를 컨벌루션하면 한 노드당 40개의 계수를 얻을 수 있으며 이를 jets하고 다음과 같이 계산할 수 있다.
  
      
각 얼굴 영상에서 구한 얼굴 그래프의 jets들을 해당 얼굴의 특징을 표현하는 템플릿으로 하면 얼굴 인식을 위해 두 얼굴의 유사도(similarity)를 다음과 같이 계산할 수 있다.

[표 3] EBGM 알고리즘을 이용하여 FERET 데이터베이스 얼구루 인식을 수행한 결과

 
      

EBGM 알고리즘을 이용하여 FERET 데이터베이스의 얼굴 인식을 수행한 결과를 [표 3]에 도시하였다. 부분 자동 인식에서 PCA를 이용한 결과에 비해 매우 우수한 인식 성능을 얻을 수 있었고 완전 자동 인식에서도 비교적 우수한 인식 성능을 얻을 수 있었기 때문에 Gabor 피쳐가 얼굴 인식에 효율적으로 사용될 수 있음을 보였다.  

비록 EBGM이 성공한 얼굴 인식 모델이긴 하지만 전체 영상을 몇 단계로 탐색하기 위해 많은 양의 계산을 필요로 하는 대단히 계산집약적인 알고리즘이고 초기에 얼굴 위에 놓은 FG 위치에서 제한된 범위 내에 있는 화소들만 스캐닝한다는 단점이 있다. 따라서 얼굴의 피쳐 포인터인 기준점들을 보다 빠르고 정확하게 찾을 수 있는 최적화된 모델/그래프 매칭 방법이 계속 연구되어 왔다.

4.3 Local Binary Pattern (LBP)


[그림 11] LBP 히스토그램과 영역별 가중치를 적용한 얼굴 피쳐 표현의 예


[그림 12] 기본적인 LBP 연산자의 예

LBP는 2004년도 Oulu 대학 연구팀이 얼굴 인식에 성공적으로 적용할 수 있는 인식 기술임을 발표[5]한 이후 최근 가장 다양한 연구 결과들이 발표되고 있는 얼굴 인식 기술이다. LBP에서는 먼저 얼굴 영상을 작은 영역(small regions)으로 나누고 각 영역으로부터 LBP 히스토그램을 추출한다. 얼굴 영상을 표현하는 전체 피쳐 공간에서 하나의 피쳐 히스토그램을 표현할 수 있도록 작은 영역의 히스토그램들을 [그림 11]과 같이 연결시킨다. LBP 히스토그램을 구하기 위한 기본적인 LBP 연산자는 [그림 12]에서와 같이 3x3 영역에서 중심 화소 값을 기준으로 주변 화소 값들의 차를 비교한 결과를 2진수로 레이블링 하는 것이다.
이때 주변 화소들이 8비트로 표현되어 256개의 레이블로 표현되기 때문에 이를 그대로 히스토그램 피쳐로 표현할 경우 비유사도(dissimilarity) 계산양이 너무 많아질 수 있다. 이를 해결하기 위해 Uniform Patterns 개념을 도입하여 영상 특징 표현에 기여도가 낮은 패턴을 제외시킴으로써 전체 표현 가능 레이블 개수를 줄였다. 즉, 2진수 비트 열에서 0에서 1(또는 반대로 1에서 0)의 천이가 최대 2번 이내로 일어나면 그 LBP는 Uniform하다고 정의하고 이들을 하나의 레이블로 인덱싱하면 전체 표현 가능 레이블 개수가 59개로 줄어들게 된다. 얼굴 영상을 개의 작은 영역으로 분할(R0, R1, ..., Rm-1)해서  n=59개 레이블의 LBP 히스토그램 Hi을 구하고 이들을 연결하여 LBP 피쳐 Hij로 표현하면 다음과 같이 된다.  m개의 영역 각각에 가중치 wj를 적용하여 두 얼굴 영상의 LBP 피쳐  Sij 및  Mij사이의 비유사도를 다음과 같이 계산한다.

[표 4] LBP  알고리즘을 이용하여 FERET 데이터 베이스 얼굴 인식을 수행한 결과

       


부분 자동 인식 LBP 알고리즘을 이용하여 FERET 데이터베이스의 얼굴 인식을 수행한 결과를 [표 4]에 도시하였다. LBP만 사용한 경우 Gabor 피쳐와 비슷한 성능을 보였으나 조명 영향을 고려한 얼굴 인식에서 Gabor 피쳐에 비해 성능이 약간 낮아지는 것을 볼 수 있었다. 특히 Gabor 피쳐와 LBP 피쳐를 결합하여 얼굴 인식을 수행한 결과 최근까지 발표된 부분 자동 얼굴 인식 알고리즘 중에서 최상의 인식 성능을 보여 주었다.

5. 결론
본 고에서는 얼굴 인식 기술의 성능 평가 방법과 그 동안 진행되어왔던 주요 얼굴 인식 기술 동향에 대해서 소개하였다. 특히 FERET 얼굴 데이터베이스에 적용한 결과 매우 우수한 인식 성능을 보였던 주요 얼굴 인식 알고리즘들을 자세하게 설명함으로써 향후 상용 얼굴 인식 엔진을 개발하는데 필요한 중요한 기본 개념들을 이해할 수 있도록 하였다.
상용 얼굴 인식 엔진을 개발하기 위한 도전은 국내외적으로 여전히 계속되고 있으며 패턴인식 분야의 주요 해결 과제로 당분간 많은 연구 결과들이 지속적으로 쏟아져 나올 것으로 전망된다. 
 
다음 호에서는 이상의 기본적인 얼굴 인식 기술들을 바탕으로 완전 자동 실시간 대용량 얼굴 인식 엔진을 개발하기 위해 노력했던 본 연구실의 얼굴 인식 분야 연구 결과들을 소개할 예정이다.

[참고문헌]

1. M. Turk, A. Pentland, "Eigenfaces for Recognition", Journal of Cognitive Neurosicence, Vol. 3, No. 1, pp. 71-86, 1991.
2. L. Wiskott, J. Fellous, N. Kruger and C. Malsburg, "Face Recognition by Elastic Bunch Graph Matching", Intelligent Biometric Techniques in Fingerprint and Face Recognition, Ch. 11, pp. 355-396, 1999.
3. P. Phillips, H. Moon, S. Rizvi and P. Rauss, "The FERET Evaluation Methodology for Face-Recognition Algorithms", IEEE Trans. on PAMI, Vol. 22, No. 16, pp. 1090-1104, 2000.
4. D. Bolme, "Elastic Bunch Graph Matching", Master Dissertation, Colorado State University, 2003.
5. T. Ahonen, A. Hadid and M. Pietikainen, "Face Recognition with Local Binary Patterns", ECCV, pp. 469-481, 2004.
6. C. Aguerrebere, et. al, "Aguara: An Improved Face Recognition Algorithm through Gabor Filter Adaptation", IEEE Workshop on Automatic Identification Advanced Technologies, pp. 74-79, 2007.
7. X. Tan and B. Triggs, "Fusing Gabor and LBP Feature Sets for Kernel-based Face Recognition", AMFG'07 Proceedings of the 3rd international conference on Analysis and modeling of faces and gestures, pp. 235-249, 2007.
8. R. Senaratne, S. Halgamuge and A. Hsu, "Face Recognition by Extending Elastic Bunch Graph Matching with Particle Swarm Optimization", J. of Multimedia, Vol. 4, No. 4, pp. 204-214, 2009.
9. Face Recognition Homepage: www.face-rec.org



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.