CCTV영상을 이용한 차량상충 자동판단프로그램 개발
상태바
CCTV영상을 이용한 차량상충 자동판단프로그램 개발
  • 가순필
  • 승인 2009.03.12 00:00
  • 댓글 0
이 기사를 공유합니다

근본적인 교차로에서의 안전도 향상을 위해서는 사고발생 이전에 나타나는 사고의 개연성에 대한 연구가 필요하다.  교통사고는 교통상충상황의 연장선에서 발생하는 것으로써, 적은 시간과 한정된 공간에서 조사가 용이하고 자료취득이 수월하며 적은 비용으로 연구를 수행할 수 있다는 장점이 있다.
 
따라서 교통상충기법은 그 활용도가 높으며, 많은 필요성이 제기되고 있는 실정이다. 이에 본 연구에서는 신호교차로 영상을 입력받아서 교통상충을 자동으로 분석하고 처리할 수 있는 프로그램을 개발했다. 본 프로그램은 CCTV카메라에서 입력되는 영상입력부, 입력된 영상을 배경영상, 현재영상, 차영상(difference image), 이동차량 분할(segmentation)영상으로 저장하는 영상저장부, 저장된 영상을 상충알고리즘에 의해 상충판단을 하는 영상처리부, 그 처리된 결과를 디스플레이 해주는 영상출력부로 구분하여 처리한다. 프로그램 개발은 그래픽 언어인 LabVIEW 8.5버전과 VISION모듈 라이브러리를 이용해 개발했다.

Ⅰ. 서  론

1. 연구의 배경 및 목적
최근 국내에서는 교통안전에 대한 관심이 증가하면서 도로교통 분야의 안전성을 향상시키기 위한 다양한 연구들이 수행되고 있다. 이는 크게 교통사고와 기하구조 등 주변 환경자료를 이용하여  대상교차로 혹은 도로구간의 교통사고에 영향을 미치는 독립변수들을 이용하여 사고예측모형을 만드는 연구와 교통사고 발생 이전의 자료인 교통상충 자료를 이용하여 분석함으로써 안전성을 제고시키고자 하는 연구로 대별할 수 있다.

이중 교통상충에 대한 연구는 국내에서는 90년대 말부터 연구되기 시작하였으며, 최근에 들어서 활발하게 연구되고 있는 분야이다. 교통상충기법은 적은 시간과 한정된 공간에서 조사가 용이하고 자료취득이 수월하며 적은 비용으로 연구를 수행할 수 있다는 장점이 있다. 또한, 기존에 교통사고이력자료를 이용한 연구가 가지는 한계인 데이터의 누락을 방지할 수 있다. 따라서 교통상충기법은 그 활용도가 높으며, 많은 필요성이 제기되고 있는 실정이다.

하지만 교통상충기법이 가지는 한계로서, 기존에 연구된 교통상충에 대한 선행연구는 주로 교통상충의 발생 건수만을 주로 연구했을 뿐, 교통사고의 심각도와 같이 교통상충을 심각도로 구분하여 수행된 연구는 많지 않았다. 주로 조사원에 의해 교통상충이 측정되어지고 연구를 위한 기본 자료로 사용되어왔지만, 이는 조사원에 의한 오차를 발생시킬 수 있는 여지가 내재되어 있으며, 분석대상 영상을 비디오로 촬영하여 분석하는 것 역시 분석자의 주관이 개입될 수 있는 위험요소가 존재해 왔다.

현재까지 교통상충을 자동으로 판단하고 분석할 수 있는 프로그램의 개발이 전무한 상황이기 때문에 본 연구에서는 신호위반시에 발생하는 교통상충의 유형을 분류하고 각각의 유형에 대한 상충판단기준을 적용하여 교통상충을 자동으로 판단할 수 있는 프로그램을 개발하고자 한다. 

2. 연구의 범위 및 방법
본 연구에서 개발하고자 하는 교통상충 자동판단프로그램은 신호교차로를 대상으로 하였으며, 본 연구에서는 신호위반 시 발생하는 상충유형을 대상으로 알고리즘을 적용하였다[1]. 또한, 이를 영상으로 처리하기 위해 각 픽셀간의 거리를 실측거리가 반영된 거리로 환산할 수 있도록 이른바 '픽셀 간 거리 보정법[2]'을 적용한다.

본 프로그램은 CCTV카메라에서 입력되는 영상입력부, 입력된 영상을 배경영상, 현재영상, 차영상(difference image), 이동차량 분할(segmentation)영상으로 저장하는 영상저장부, 저장된 영상을 상충알고리즘에 의해 상충판단 하는 영상처리부, 그 처리된 결과를 디스플레이 해주는 영상출력부로 크게 대분류 하여 처리하도록 설계되었으며, 프로그램 개발은 그래픽 언어인 LabVIEW 8.5버전과 VISION모듈 라이브러리를 이용하여 개발하였다. 또한, 연구의 시·공간적 범위로는 3개 교차로의 영상을 각각 30분씩 수집하여 분석을 수행했으며, 실험대상 교차로의 다양성을 통해 현장 적용성을 검증하기 위하여 카메라의 설치 높이가 서로 다르게 약 6.8m 영상과 약 15m 영상을 이용하였다. 

Ⅱ. 선행연구

교통상충은 사고를 유발시킬 수 있는 차량 간의 상호작용이며, 도로이용자들은 "같은 시점에 같은 지점을 점유하려는 시도를 함으로써 상충을 포함한 충돌의 과정에 놓이게 된다"고 설명하고 있다[3]. 이에 따르면, 사고는 도로사용자와 도로환경, 차량사이의 상호작용의 실패로 인해 발생되는 것으로 사고와 같은 방식으로 발생한다. 상충과 사고발생 과정의 유사성 때문에 사고는 상충을 연구함으로써 개선할 수 있음을 의미하고 있다.

이중 신호위반에 의해 발생하는 상충유형으로는  교차상충과 대향좌회전상충이 있으며, 이들 차량은 진입과정에서 황색신호가 점등되면 정지하는 것이 원칙임에도 불구하고 신호를 위반하여 교차로에 진입을 시도하는 차량들이다. 이로 인해 대향방향에서 정상적인 신호를 받고 주행하려는 후행차량에게 회피행동 내지는 선행차량이 교차로를 통과하기까지 대기하게 되는 상황을 유발하게 된다 [4, 5].

영상처리를 통하여 교통상충을 판단하는 알고리즘에 관한 연구는 참고문헌[1]에 의하여 선행 연구되었다. 이 연구에서는 정확한 상충의 판단기준을 제시하기 위해 상충의 심각도에 단계를 두어 그 정도를 세분화하였다.

참고문헌 [1]에 의해 정립된 각 단계별 상충의 판단기준은 다음과 같다.

(1) 신호위반(1단계)
기존에 교차로에서 상충을 판단하기 위해 사용한 방법으로 선행 차량이 황색신호에 무리하게 교차로 내로 진입하여 신호위반을 한 경우를 카운트한다

영상처리기반으로 각 차량들의 시간에 따른 위치자료와 교차로 신호현시를 연결하여 각 차량이 교차로 안으로 진입한 시간과 밖으로 진출한 시간을 신호시간과 비교함으로써 신호위반 건수를 측정한다.

(2) 약한 상충(2단계) 및 위험한 상충(3단계)
전 신호의 차량이 신호위반을 했을 때 다음신호의 차량이 교차로 내로 진입할 경우, 두 차량 간의 제동거리를 계산하여 상충 판단을 할 수 있다.

영상처리를 통해 획득한 차량 간의 좌표를 통해 두 차량의 제동거리를 계산한다. 두 차량 간에 대한 제동거리를 계산한 뒤, 실시간으로 반영된 좌표에 두 차량의 제동지점을 표시하면 두 차량이 제동하는 지점의 좌표를 확인할 수 있게 된다.

신호위반 차량(A)와 후행차량(B)의 제동정지거리 좌표가 계산되면, 이를 바탕으로 두 차량의 교차점을 계산한다. 점(xat, yat)과 점(xat+1, yat+1)를 이루는 하나의 직선과, 점(xbt, ybt)과 점(xbt+1, ybt+1)를 이루는 직선을 통하여 교차점을 계산할 수 있게 된다. 두 차량의 예상 정지거리를 기준으로 하여 교차점이 구성된다면 사고발생의 가능성이 높은 것으로 판단할 수 있으며, 이때를 상충의 심각도 3단계(위험한 상충)로 구분 가능하다.

하지만 제동정지거리를 이용하여 계산된 직선구간이 교차점을 구성하지 않는 경우에는 약한 상충(2단계)으로 구분한다.

(3) 심각한 상충(4단계: 사고)
영상처리기반으로 수집한 두 차량의 좌표에서 각각 차량의 범위를 나타내는 부분이 만나거나 겹치게 되었을 때 사고로 판단 즉, 두 차량간의 최소거리 D≤0 이면 사고로 판단한다.

Ⅲ. 교통상충 자동판단프로그램 구현

1. 교통상충 자동판단프로그램
본 시스템은 영상을 통하여 이미지를 추출하는 단계, 차량을 추적하는 단계, 추적된 차량으로부터 속도, 제동거리 등을 산출하는 단계, 그리고 산출된 속도, 제동거리 등을 이용하여 상충을 판단하는 단계 등 총 7단계로 그림 1과 같이 구성되어 개발되었다.



<그림 1. 상충판단 프로그램의 데이터 처리절차>

차량검지는 배경영상 차영상(diffe re nce image)을 이용한 영역기반 알고리즘을 적용하였다. 영역기반 알고리즘은 일반적으로 처리시간을 단축할 수 있다는 장점이 있다. 본 시스템은 트래킹을 기반으로 교통정보까지 계산하게 되면 처리시간을 많이 필요로 하기 때문에 가급적 처리시간이 적게 걸리는 영역기반 알고리즘을 사용하는 것이 유리하다. 또한 영상처리를 8비트로 단순화 하여 계산량을 줄였다.

그외 특징 기반(feature based) 트래킹을 이용해도 처리시간을 단축할 수 있으나, 이는 속도, 점유시간을 계산하려면 이동차량의 전체 윤곽을 추출해야 정확한 교통정보가 산출되기 때문에 차량의 부분적 영역만을 추출하는 CDT방법1) 역시 본 연구에서는 제외하였다.

<그림 2. 상충처리를 위한 데이터 변환 과정>

<그림 3. 교통상충 판단 과정>

상충처리를 위한 데이터 변환과정에 대하여 좀 더 상세하게 표현하면 그림 2와 같이 표현할 수 있다. 1단계와 2단계에서 취득한 차량의 주행궤적 데이터로부터 교차로의 검지라인까지 자동계산 알고리즘을 이용하여 거리가 실측되고, 이것이 반영된 실제 거리좌표가 변환을 수행하게 된다. 이를 통해 추적되는 각각의 개별 차량의 속도를 산출하고 제동거리를 계산한다. 또한, 계산된 제동거리를 이용하여 주행궤적 자료를 기반으로 예상되는 제동지점을 좌표화 할 수 있게 된다. 이와 동시에 차량이 신호를 위반하고 있는 상황인지를 영상 수집 시 함께 전송되는 신호자료를 이용하여 판단하고, 신호위반 시에는 상충의 단계가 1단계로 기록되어 차량의 주행궤적을 계속 추적하게 된다.
위의 데이터변환 과정을 거쳐 상충판단을 위한 절차를 수행하게 되는데, 교통상충의 심각도를 구분하는 알고리즘은 위에서 언급한 것처럼 참고문헌[1]의 논문 알고리즘을 적용하였으며, 총 4단계로 구분된 상충의 심각도에서 신호를 위반하게 되면 1단계로, 그림 3의 과정을 거쳐 상충판단을 위한 자료를 생성하여 신호위반한 차량으로 인하여 회피행동(즉, 제동거리 교차) 여부에 따라서 2단계와 3단계의 상충으로 심각도를 구분한다.

2. 교통상충 자동판단 하드웨어 구현
본 프로그램은 CCTV카메라에서 입력되는 영상입력부, 입력된 영상을 배경영상, 현재영상, 차영상(diffrence image), 이동차량 분할(segmentation)영상을 저장하는 영상저장부, 저장된 영상을 상충알고리즘에 의해 상충판단을 하는 영상처리부, 그 처리된 결과는 디스플레이 해주는 영상출력부로 구분하여 처리한다.
프로그램 개발은 그래픽 언어인 LabVIEW 8.5버전[7-10]과 VISION모듈 라이브러리를 이용하여 개발하였다.

1) 영상입력부(Image Input Module)
본 연구는 교차로 CCTV에서 획득한 640*480 해상도의 매초 30프레임 아날로그 영상을 프레임 그레버 보드에서 디지털영상을 전환한 영상으로 영상처리를 하였다. 배경영상은 검지영역 내 도로영상을 저장하였고, 이때 계산 속도를 높이기 위해 검지영역 내 영상은 256그레이로 변환하여 처리하였다.

2) 영상저장부(Save to buffer Module)
이 배경영상을 t 프레임 영상으로 정의하고. 이를 메모리 버퍼 LL_grabAcq에 저장한다. 이동차량의 추출(segmentation)을 위하여 (t+i) 프레임 영상을 메모리 버퍼 TEMPLATE에 저장하고, 배경영상이 저장된 버퍼 LL_grabAcq와 현재프레임이 저장된 메모리버퍼 TEMPLATE의 각 주소별 1:1 매칭별 차이를 구해 차영상을 산출하고, 이를 버퍼 ImgSubtract에 저장한다.
(ImgSubtract = |LLgrabAcq - TEMPLATE|)
LLgrabAcq: 배경영상이 저장된 버퍼
 TEMPLATE: (t+i) 프레임 영상을 저장하는 메모리 버퍼
차영상은 이동차량의 영역을 정확히 추출할 수 없기 때문에 모폴로지 알고리즘에 의하여 영역의 팽창(dilation)작업을 처리해야 한다. 본 프로그램에서는 3*3마스크( structuring element)로 모폴로지 팽창(mophological dilation)을 처리하였다. 3*3마스크를 이용한 이유는 상충정보 산출을 위하여 차량의 이동거리를 정확하게 계산해야 하는데, 너무 큰 마스크를 이용할 경우 이동거리 계산에 오류가 많이 나오기 때문에 최소한의 마스크를 이용하여 모폴로지 팽창처리를 했다.
이동차량이 아닌 것은 모두 노이즈로 처리하는 데, 모폴로지를 해서 3*3 이하인 것은 노이즈로 간주하여 해당 위치값을 배경영상으로 대체함으로써 제거하였다.
검지영역 내 각 픽셀별 실제거리 계산은 참고문헌 [2] 알고리즘에 의해 계산하며, 각 프레임별 이동차량의 좌표값과 화면의 절대 좌표값을 역시 알고리즘 [2]에 의해 계산된 실제 죄표값으로 변환시킴으로써 이전 프레임과 비교하여 개별차량의 이동거리를 계산할 수 있다. 본 프로그램에서 이동거리는 0.1초단위로 계산하였다.

<그림 4. 신호데이터 연계 흐름도>


<그림 5. 신호등에 따른 차량 처리 방향>

3) 영상처리부(Conflict Detection Module)
전 단계에서 검지영역 내 실제거리 계산, 이동차량의 실제 이동거리의 계산이 이루어지면, 개별차량에 대한 제동거리 산출을 위한 속도를 계산한다. 속도계산은 0.1초 단위 실제 이동거리로 계산되어지며, 산출된 속도로 마찰계수와 차량 길이로 제동거리를 계산할 수 있다.
제동거리(ST)=υ²/(254×F)+L/2로 계산된다.
여기서, υ : 차량속도, F : 마찰계수, L : 차량길이
<그림 6. 본 연구에서 개발한 교통상충 프로그램>

또한 이동방향은 이전 프레임 (t-1)과 현재 프레임의 기울기를 연장시켜 이동방향을 산출한다.
그림 6에서 제동거리 진행방향은 이 계산된 결과로 개별차량의 예상 제동거리 및 진행방향을 시각적으로 표시한 것이다. 신호위반 감지는 교차로 내 4개 신호등에 대하여 컬러값을 256그레이로 변환하지 않고 신호등 컬러값을 그대로 처리하였으며, 이는 처리속도를 위하여 컬러값을 256그레이로 변환할 경우 신호값의 혼란을 배제하기 위함이다.
신호등을 제어하는 신호제어기 신호구동부와 유·무선 데이터통신망을 연계하여 수신된 신호현시 데이터와 교차로의 입력 영상을 합성하여 모니터링이 가능하도록 그림 4와 같이 시스템을 구현하였다.
신호위반을 처리하기 위한 신호등 신호에 따른 차량  진행방향은 그림 5와 표 2에 나타나 있다.
표 2에서 'X'표시에서 차량진행이 발견되면 1단계 상충인 '신호위반'으로 처리하였다.
위 표를 기준으로 신호등 값에 따라 좌회전 및 직진을 하지 않을 조건인데도 불구하고 검지영역 내에서 차량이 이동하면, 이는 신호위반으로 상충 1단계로 처리하였으며, 검지영역 내 또 다른 차량이 존재해서 이동하고 있다면 이를 상충 2단계로 처리하였다.

4) 영상출력부(Conflict Result Display Module)
위에서 설명한 상충판단 프로그램의 결과는 그림 6과 같다. 상충결과가 나오기까지 영상입력, 영상처리, 상충판단 과정의 대표결과를 모두 출력하기 위하여 영상출력은 전체화면을 네 분할하였으며, 현재 영상 출력영역, 이동 차량분할 영역, 제동거리 및 이동방향 산출영역, 상충심각도 결과 텍스트로 나누어 출력하였다.

3. 현장시험 및 문제점
1) 관련 자료수집
본 연구에서 개발한 교통상충 판단 프로그램의 적용성을 확인하기 위하여 성남시의 정자사거리와 내정사거리, 그리고 파주시의 말레이시아교 사거리 등 총 3개 지점에서 각각 30분간 영상을 획득하고 프로그램을 구현하였다. 본 프로그램의 확장성을 확인하기 위해 다양한 환경에서 실험을 수행하고자 카메라의 높이를 차별화하여 영상을 수집했다. 파주시의 카메라 높이는 약 15m이고, 성남시의 카메라 높이는 약 6.8m 높이이다. 수집된 영상은 아래의 그림 7, 8, 9와 같다.

 

그림 7. 내정사거리 수집영상  그림 8. 정자사거리 수집영상 그림 9. 말레이시아교 수집영상
 

2) 분석결과
본 연구에서 개발한 상충판단 프로그램을 현장조사를 통해 획득한 교차로 영상을 대상으로 분석을 수행했다. 본 프로그램으로부터 제공되는 데이터는 다음의 표 3과 같으며, 제공되는 데이터는 날짜, 시간, 차량 ID, 차량의 좌표, 상충의 심각도, 그리고 차량의 속도 등 자세하게 산출되도록 설계했다.

표 3의 데이터를 바탕으로 분석대상 교차로에서 발생한 상충의 심각도를 도식화하여 분석을 수행했다. 본 연구에서 적용한 상충의 4단계인 사고상황은 발생하지 않은 것으로 나타났으며, 1단계인 신호위반 상황부터 2단계, 3단계의 상충발생 상황이 분석데이터로부터 확인되었다. 표 3의 데이터 중 각 차량의 좌표에서 발생하는 (-) 값은 영상에 입력되는 부분 중에서 교차로의 내부를 중심으로 검지영역을 설정하여 본 연구를 수행하였기 때문에 검지영역에서 제외된 경우에는 (-)의 값을 표현하는 것이 가능하도록 개발되었으며, 차후 진입로 부분 등 교차로에 입력되는 영상을 모두 검지영역으로 설정하여 분석하게 되면 발생하지 않을 부분이다.

 

<그림 10. LOC 1단계(신호위반) 발생상황>

 

<그림 11. LOC 2단계(약한 상충) 발생상황>

그림 10은 신호를 위반한 ID 44288 차량이 교차로에 진입하여 상충 1단계로 검지된 상황을 설명하고 있으며, 이 상황에서는 신호위반 차량을 제외하고 다른 차량은 교차로에 존재하지 않았던 것으로 분석이 가능하다.
그림 11은 신호를 위반한 ID 70178 차량이 교차로에 진입하면서 상충 1단계로 검지된 후 ID 64335 차량과 2단계의 약한상충을 나타내는 상황이다. 이 상황에서는 위험한 상충(3단계)은 발생하지 않은 것으로 나타났다. 

Ⅴ. 결론

1. 연구결과
본 연구에서는 교통상충연구의 필요성에 공감하고, 교차로에서의 안전도를 평가하는 지표로서 사용이 가능하도록 교통상충을 자동으로 판단할 수 있는 프로그램을 개발하였다. 본 연구의 의의는 기존의 교차로 안전도를 평가하는 연구가 대부분 사고이력자료를 이용한 사고예측모형 개발로 인하여 수행되었다면, 본 연구의 성과는 사고 발생 이전에 형성하는 교통상충 상황을 실시간으로 감시하면서 분석할 수 있는 장점이 있다고 하겠다. 따라서 본 연구의 결과는 사고이력자료와 함께 도로의 안전도를 향상시킬 수 있는 유용한 자료가 될 것으로 판단한다.
또한, 영상처리에 있어 기존 검지영역은 차량진행방향에 맞춰 일정한 범위로 설정하여, 다른 진행방향, 우회전 또는 좌회전 차량에 대한 검지는 불가능 했다. 본 시스템은 이러한 차량 진행방향에 따른 검지영역 설정의 한계를 넘어 교차로 전체를 검지영역으로 설정함으로써 교차로에서의 좌회전, 우회전 차량의 진행방향 및 속도를 산출함으로써 상충정보를 감지할 수 있다는 특징이 있다. 상충에 대한 유형을 분류하여 이를 시스템에 적용함으로써 교차로에서의 사고위험을 사전에 감지할 수 있는 체계를 만들었다는데 그 의의가 있다. 
 
2. 향후 연구과제
본 논문의 현장적용은 시험을 위해 3개 지점에서 현장시험을 각각 30분간 수행하였으나, 시험조건의 한계로써 상충정보 산출을 위한 최적의 환경을 미리 설정하여 수행한 것이 아니라 기존 환경 하에서 수행할 수밖에 없었다.
따라서 향후에는 교차로에서의 상충정보를 보다 정확히 감지할 수 있는 조건, 예를 들어, 교차로 내 카메라의 위치, 카메라의 높이, 각도 등의 제안을 위하여 다양한 환경에서의 시험이 추가적으로 수행되어야 할 것으로 판단된다.   
결론적으로 본 연구에서 개발한 교통상충 자동판단 프로그램은 궁극적으로 분석의 정확도를 획기적으로 향상시킬 수 있을 뿐 아니라, 영상처리를 통하여 교차로의 안전도를 자동으로 감시하고 분석할 수 있는 계기가 마련된 것이라고 할 수 있다. 또한, 본 연구에서 개발한 프로그램을 통하여 분석된 결과들은 데이터베이스화 하여 통계적으로 분석한다면, 유의한 시사점을 제공할 수 있는 연구가 될 것으로 판단한다.

*본 내용은 건설교통부 교통체계효율화사업(06교통핵심C01)에 의해 수행하였던 연구를 기사화 한 것입니다



참고문헌
[1] 김명섭, 오주택, 김응철, 정동우, "개별차량 추적기법을 이용한 신호교차로 교통상충 판단기준 정립 및 적용," 대한교통학회지 심사중, 2008.
[2] 오주택, 민준영, 허병도, 김명섭, "검지라인 자동계산을 이용한 차량추적 알고리즘 개발," 대한교대한교통학회지,  제26권,  제4호, pp.265-273, 2008.
[3] 이용택, 이재석, "스웨덴식 교통상충기법(STCT)의 개발방향," 대한토목학회지, 제49권, 제3호, pp. 48~53, 2001.6.
[4] 서울시정개발연구원, 서울시 교통사고 유형분석 및 개선방안, 2001.
[5] 박원규 주행 중 돌발 상황시 운전자 회피 행동 분석, 목원대학교 산업정보대학원, 2002. 12.
[6] Z. Kim, "Realtime obstacle detection and tracking based on constrained delaunay triangulation," Proc. IEEE Intelligent Transportation Systems Conf., pp.548-553, Sep. 17-20, 2006.
[7] 곽두영, "컴퓨터기반의 제어와 계측 LabVIEW," Ohm사, 2006.
[8] 곽두영, 컴퓨터기반의 제어와 계측 LabVIEW Express, Ohm사, 2005.
[9] 박흥복, 제어 및 계측, 인터넷 응용을 위한 그래픽컬 프로그래밍 LabVIEW 7.0입문, 정익사, 2005.
[10] J. Rahman and P. Herbert, LabVIEW Applications and Solutions, Prentice Hall, 1999.

각 주
1) Constrained Delaunay Triangulation (CDT) 알고리즘이 있는 데, 이 방법은 이동물체의 정확한 윤곽을 추출하는 것 보다는 계산량을 감소하는 데, 유용하게 이용된다[6](Z. Kim, 2006).

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.