[기고] 일반인공지능(AGI)을 향하여
상태바
[기고] 일반인공지능(AGI)을 향하여
  • CCTV뉴스 편집부
  • 승인 2022.06.17 14:40
  • 댓글 0
이 기사를 공유합니다

A Generalist Agent: Gato

[글=노규남 | (주)위블 CEO]
bardroh@weable.ai

알파고로 유명한 딥마인드가 새로운 모델을 공개했다. 이번에 내놓은 모델은 ‘Gato’라는 이름인데, 혹자는 이를 ‘AI 모델을 위한 스위스 군용 칼(Swiss army knife for AI models)’이라고 부르기도 한다.

스위스 군용 칼, 통칭 ‘맥가이버칼’은 도구 하나로 칼, 드라이버, 가위, 톱, 깡통 따개, 와인 오프너 등 다양한 용도로 사용할 수 있는데, Gato도 마찬가지로 하나의 모델로 이미지 캡셔닝, 텍스트 생성, 게임 플레이 등 다목적으로 사용할 수 있기 때문이다.

이처럼 Gato는 604개의 task를 단일 모델로 처리하는 멀티모달(Multi-modal), 멀티태스크(Multi-task) 모델로, 다양한 목적으로 활용할 수 있기 때문에 딥마인드에서는 Gato의 논문을 발표하면서 ‘A Generalist Agent’라는 부제를 붙였다.

Gato는 무엇이 다른가

다른 인공지능 모델들은 대개 특정 분야에서 SOTA(State-ofꠓthe-Art: 최고 수준) 레벨의 결과를 내는 것을 목표하고 있다. 예를 들어 ImageNet 데이터 분류의 경우 인간이 대략 5%의 오류를 낸다고 알려져 있는데, 이 부문에서는 합성곱 신경망(CNN)의 다양한 모델들이 오류율에서 인간을 능가한지 이미 몇 년이 되었다.

이 정도 수준이 된다면 사람이 하던 이미지 분류를 기계에게 맡겨도 효율이 떨어지지 않으며, 오히려 사람이 한 것보다 더 좋은 결과를 기대할 수 있으므로 상업적으로 AI를 사용하는데 전혀 문제가 없을 것이다.

그런데 Gato는 좀 다르다. Gato는 단일 모델로 600개가 넘는 task를 수행할 수 있으나, 대부분의 task가 훈련 데이터보다 못한 성능을 보인다. 즉 SOTA 레벨의 훈련 데이터로 학습시켰다고 하더라도 그 수준에 근접하는 task는 많지 않으며, 아무리 잘 하더라도 훈련 데이터 이상의 성능을 보일 수는 없다.

다시 말해 Gato는 단일 모델로 많은 task를 수행할 수 있으나 각각의 task를 최고 수준으로 수행할 수는 없는 것이다. 더불어 근래 계속 발표되고 있는 초대형 모델들에 비하면 파라미터의 숫자가 현저하게 적어서 12억 개밖에 되지 않는다(참고로 GPT-3의 파라미터 숫자는 1750억 개나 된다).

따라서 이 모델을 당장 실무에 적용하는 건 별로 좋은 생각이 아닐 것이다. 그런데 딥마인드는 왜 이것도 저것도 아닌, 이렇게 애매해 보이는 모델을 만든 것일까?

전이 학습(Transfer Learning)

필자의 의견을 말하자면, 현재 Gato는 각 task들에 대해서 SOTA를 달성하는 걸 목표하고 있지 않는 것으로 보인다. 시간이 지나고 나면 여러 가지 task를 수행하면서도 각각의 task에 대해 SOTA 레벨의 결과를 내는 모델을 만들 수도 있겠지만 지금은 그것보다 더 중요한 목표가 있다.

Gato가 확인해 보려고 하는 것은 사람이 배우는 것처럼, ‘한 종류의 task에서 얻은 지식을 다른 종류의 task로 transfer할 수 있는가’라는 질문에 대한 답이다.

AI 모델들은 점점 커지고 있고, 이들을 학습시키는 데는 많은 데이터와 시간이 든다. 그렇기 때문에 매번 특정 task를 수행하기 위한 모델을 만들 때마다 이들을 학습시키는 것은 너무 비효율적이다.

전체 기사를 보시려면 로그인 필요

로그인 또는 회원가입을 해주세요. (회원만 열람가능)

로그인 회원가입


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.