220420_유명조달기업
KAIST, 최소 학습데이터로 AI 정확도 높이는 딥러닝 모델 개발
상태바
KAIST, 최소 학습데이터로 AI 정확도 높이는 딥러닝 모델 개발
  • 황민승 기자
  • 승인 2021.10.27 17:36
  • 댓글 0
이 기사를 공유합니다

이미지 분류 12%, 객체 검출 3%, 객체 지역화 8% 예측 정확도 향상
(왼쪽부터) KAIST 전산학부 이재길 교수, 박동민 박사과정 [사진=KAIST]
(왼쪽부터) KAIST 전산학부 이재길 교수, 박동민 박사과정 [사진=KAIST]

뛰어난 인공지능(AI)을 개발하기 위해서는 방대한 양의 학습용 데이터가 요구된다. 데이터가 많을수록 학습량도 많아져 더 정확하고 똑똑한 AI를 만들 수 있다. 모든 AI 개발사들이 AI 학습용 데이터셋 확보에 열을 올리고 있는 이유가 여기에 있다.

이런 가운데 국내 연구팀이 소량의 데이터로도 딥러닝의 정확도를 극대화할 수 있는 방법을 찾아냈다. 이를 적용하면 수작업으로 진행되는 AI 학습용 데이터의 레이블링(labeling)에 필요한 막대한 비용과 시간을 아끼면서 더 신속한 AI 개발이 가능해질 전망이다.

카이스트(KAIST)는 전산학부 이재길 교수팀이 적은 양의 AI 훈련 데이터로도 높은 예측 정확도를 달성할 수 있는 새로운 모델 훈련 기술을 개발했다고 27일 밝혔다.

이번에 이 교수팀이 개발한 기술은 심층 학습 모델의 훈련에서 바람직하지 않은 특성을 억제해 충분하지 않은 훈련 데이터를 가지고도 높은 예측 정확도를 달성할 수 있도록 해준다. 

바람직하지 않은 특성의 억제를 위해 연구팀은 분포 외(out-of-distribution) 데이터를 활용했다. 예를 들어 낙타와 호랑이 사진의 분류를 위한 훈련 데이터에 대해 여우 사진은 분포 외 데이터가 된다. 이때 이 교수팀은 훈련 데이터에 존재하는 바람직하지 않은 특성은 분포 외 데이터에도 존재할 수 있다는 사실에 주목했다.

비선호 특성 억제 연구 개념도 [이미지=KAIST]
비선호 특성 억제 연구 개념도 [이미지=KAIST]

즉 여우 사진의 배경으로도 사막이 나올 수 있다. 따라서 다량의 분포 외 데이터를 추가로 활용해 여기에서 추출된 특성은 영(0) 벡터가 되도록 심층 학습 모델의 훈련 과정을 규제해 바람직하지 않은 특성의 효과를 억제한다. 훈련 과정을 규제한다는 측면에서 정규화 방법론의 일종이라 볼 수 있다. 분포 외 데이터는 쓸모없는 것이라 여겨졌지만 이번 기술에 의해 훈련 데이터 부족을 해소할 수 있는 유용한 보완재로서 역할할 수 있게 됐다.

연구팀은 이 정규화 방법론을 ‘비선호(比選好) 특성 억제’라고 명명하고, 이미지 데이터 분석의 세 가지 주요 문제에 적용했다. 그 결과, 기존 최신 방법론과 비교해 이미지 분류 문제에서 최대 12%, 객체 검출 문제에서 최대 3%, 객체 지역화 문제에서 최대 8% 예측 정확도가 향상됐다.

제1 저자인 박동민 박사과정 학생은 "이 기술은 훈련 데이터 부족 현상을 해결할 수 있는 새로운 방법ˮ이라며, "분류, 회귀 분석을 비롯한 다양한 기계학습에 폭넓게 적용될 수 있어 딥러닝의 전반적 성능 개선에 기여할 수 있다ˮ고 설명했다.

이재길 교수도 "이 기술이 텐서플로우(TensorFlow)나 파이토치(PyTorch)와 같은 기존 딥러닝 라이브러리에 추가되면 기계 학습과 딥러닝 학계에 큰 파급효과를 낼 수 있을 것ˮ이라고 말했다.

한편, 이번 연구는 올해 12월 열리는 최고 권위의 국제학술대회 ‘신경정보처리시스템학회(NeurIPS) 2021’에서 발표될 예정이다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.