CPU 독주는 끝! 인공지능, 지능형 반도체 판도가 바뀐다 ①
상태바
CPU 독주는 끝! 인공지능, 지능형 반도체 판도가 바뀐다 ①
  • 이나리 기자
  • 승인 2018.02.06 15:25
  • 댓글 0
이 기사를 공유합니다

GPU 빠른 딥러닝 연산처리로 ‘인공지능 칩’ 급부상

[CCTV뉴스=이나리 기자] 그동안 SF 영화 속에서만 볼 수 있었던 최첨단 시대가 머지 않아 보인다. 인공지능(AI) 기술 개발로 인해 우리의 삶은 큰 변화를 맞이하고 있기 때문이다. 최근 구현되고 있는 인공지능은 과거와 크게 다르다. 컴퓨팅, 데이터, 알고리즘의 한계가 차례로 극복되며 인공지능 분야에 큰 변화가 일어나고 있다. 

자동차가 스스로 움직이고, 다양한 언어가 자연스럽게 번역, 통역되고 환자 맞춤 의료진단이 이뤄진다. 또 사물인터넷(IoT)와 맞물려 빌딩과 집에서는 사용자의 삶의 패턴을 분석해 최적화된 온도를 유지해주고 조명을 켜주기도 한다. 이처럼 인공지능의 발전은 그 영향력이 제조, 금융, 의료, 자동차 등 거의 모든 산업에 미칠 수 있다는 점에서 엄청난 잠재력을 가지고 있다. 

인공지능 기술을 구현하기 위해서는 방대한 데이터를 처리하기 위한 빅데이터와 플랫폼도 중요하지만 이를 빠르게 연산처리하기 위한 하드웨어 기술이 뒷받침돼야 한다. 즉, 인공지능은 컴퓨팅을 위한 GPU, FPGA, ASIC와 같은 ‘가속기’가 발전돼야 실현될 수 있다는 것을 뜻한다. 

 ◇ GPU, 빠른 딥러닝 연산처리로 ‘인공지능 칩’ 급부상

매년 1월 초 미국 라스베가스에서 개최되는 세계 최대 규모의 가전 전시회 ‘CES’는 2017년에 이어 올해도 인공지능과 자율주행차가 가장 큰 화두였다. CES는 몇 년 전부터 가전을 소개하는 전시회라기 보다 최첨단 IT 기술을 발표하는 자리로 변화되고 있는데, 그 중심에는 반도체 기업인 인텔과 엔비디아가 발표하는 인공지능 기술이 업계의 주목을 받고 있다. 인공지능은 지능형로봇, 스마트 홈, 스마트 팩토리, 스마트 시티, 의료 등 다양한 분야에 활용할 수 있는 가능성이 무궁무진하다. 인공지능 시대가 도래함에 따라 컴퓨팅을 지원하는 반도체 시장 판도에 큰 변화가 오고 있다.

인공지능이 가능하게 된 이유는 크게 3가지로 요약되는데, 하나는 인터넷과 웹에 의한 대량의 디지털 데이터를 쉽게 구할 수 있게 된 것, 두 번째는 CPU(Central Processing Unit)를 넘어 GPU(Graphics Processing Units)처럼 고속 연산 처리가 가능한 범용 하드웨어가 등장한 것, 그리고 세 번째는 연구자들과 기업들이 꾸준히 연구 성과를 쌓아 온 것이다. 즉, 인공지능은 웹, 소프트웨어, 하드웨어 등의 기술 진보가 끊임없이 개발되고 결합된 결과다.

인공지능의 필수 요소 중 하나인 머신러닝(Machine Learning)은 기존 데이터의 패턴을 기반으로 스스로 학습하는 형태의 알고리즘이다. 그러나 머신러닝을 위한 데이터가 방대해지고 복잡해지면서 인공지능은 예측에 필요한 양질의 데이터만 수집하기 위한 심층적인 학습이 필요했고, 이때 등장한 딥러닝(Deep Learning) 기술은 지도학습에 기반한 인공신경망(Artificial Neural Network)의 진화된 기술로 보다 심층적인 학습을 할 수 있게 했다.

이처럼 고도화된 딥러닝을 구현하기 위해서 컴퓨팅은 CPU 보다 빠른 연산 처리를 실행해주는 하드웨어를 요구하게 됐고, 그 결과 GPU를 중심으로 FPGA(Field-Programmable Gate Arrays), 주문형 반도체(ASIC) 등이 주목 받고 있는 것이다. 이는 CPU 강자였던 인텔이 더 이상 안심할 수 없는 위치에 놓였다는 것을 의미한다. 

컴퓨팅을 위한 고성능 CPU를 생산하고 있는 인텔은 PC 프로세서 시장에서 약 80%의 시장점유율을 차지하고, 서버 CPU 시장에서도 독점적인 지위를 누리면서 반도체 업계의 1위를 지켜왔다. 그러나 컴퓨터 연산과 관련된 설계분야는 지금까지 믿어 져 왔던 ‘무어의 법칙(Moore’s law)’이 점차 한계를 드러내면서 대량의 데이터와 고도의 연산능력을 기반으로 하는 머신러닝이나 여러 인공지능 기기들에 적용될 수 있는 프로세서들의 개발 속도는 과거에 비해 더뎌지고 있다(무어의 법칙: 1965년 고든 무어가 정의한 것으로 마이크로칩에 저장할 수 있는 데이터 양이 18개월마다 2배씩 증가한다는 법칙).

또 빅데이터를 다루는 구글, 마이크로소프트와 같은 인텔의 기존 고객사는 이제 인텔이 아닌 다른 기업들의 특수화된(Specialized) 프로세서를 이용하거나 자체적으로 이를 개발하는 추세로 변화되고 있다. 

그 중 엔비디아의 GPU 성장이 가장 눈에 띈다. 엔비디아 GPU는 본래 비디오 게임에서 요구되는 대량의 복잡한 계산을 수행하거나 현실감 넘치는 가상현실 게임, 화려한 그래픽의 할리우드 영화 등 인간의 상상력 구현에 핵심적인 역할을 해왔다. 그러다 CPU가 직렬 처리(Serial Processing)에 최적화된 몇 개의 코어로 구성돼 명령어가 입력된 순서대로 순차적으로 데이터를 처리하는 반면, GPU는 수천 개의 코어를 이용해 여러 명령어를 동시에 처리할 수 있도록 병렬 처리(Parallel Processing)가 가능하다고 알려지면서 인공지능의 데이터 처리를 지원하기 위한 프로세서로 각광받고 있다. 여기서 코어는 ‘프로세서가 동시에 풀 수 있는 문제의 수’라고 볼 수 있다.

사실, CPU와 GPU는 서로 다른 목적을 위해 상이하게 설계, 구성돼 있기 때문에 명령어나 데이터의 종류에 따라 처리 속도는 CPU가 빠를 수도, GPU가 빠를 수도 있다. CPU는 컴퓨터의 중앙에서 모든 데이터를 처리하는 장치로 시스템 전체를 제어하기 위해 개발됐으며, CPU 제조사들은 인터넷 서핑이나 문서 작성 등의 작업을 보다 빠르게 수행하도록 설계한다.

전체 기사를 보시려면 로그인 필요

로그인 또는 회원가입을 해주세요. (회원만 열람가능)

로그인 회원가입


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.