[생활과학] AI와 교감하는 세상, 진짜 올까?
상태바
[생활과학] AI와 교감하는 세상, 진짜 올까?
  • 곽중희 기자
  • 승인 2022.04.01 10:56
  • 댓글 0
이 기사를 공유합니다

기술은 시간 문제, AI 윤리는 과제로 남아

지난 2월 본지는 한국 사회에 늘어나고 있는 고독사에 대해 보도했다. 고독사는 말 그대로 소외된 이들이 극한의 외로움 속에서 맞이하는 쓸쓸한 죽음을 뜻하는데, 고독사의 가장 큰 원인으로는 정서적 고립감이 꼽힌다. 주변에 사람은 많아도 정작 대화를 하며 마음을 나눌 수 있는 존재가 없는 것이다.

이런 정서적 고립 문제를 해결하기 위해 정부와 지자체가 많은 노력을 하고 있지만, 늘어난 고립의 수요를 다 감당하기에는 무리가 있다. 소외된 이들을 돌볼 인력도 부족할 뿐더러, 모든 이들을 일일이 찾아갈 수도 없기 때문이다. 이에 해결책으로 떠오르고 있는 것이 첨단 ICT를 활용한 돌봄 서비스다. 아울러 최근에는 소통을 통한 정서 교감의 중요성이 커짐에 따라 인공지능(AI)를 활용한 돌봄 서비스들이 함께 주목받고 있다.

남녀노소 너 나 할 것 없이, 모두의 친구가 된 AI

AI를 활용한 돌봄 서비스는 주로 사람의 외로움을 줄이고 사회적 고립을 예방하는데 그 목적이 있다. 이런 서비스들은 예전에는 주로 독거 노인을 대상으로 했지만, 최근에는 남녀노소 가릴 것 없이 전 계층으로 그 대상이 확대되고 있다. 50대 이상의 중노년층에서는 주로 AI 안부 전화를 통한 돌봄 서비스가, 2040의 청장년층에서는 플랫폼 형태의 AI 챗봇을 활용한 사교나 친구 만들기 서비스가 주축을 이룬다. 영화 her와 같이 감정을 느끼고 나눌 수 있는 AI 연인, AI 친구 등이 현실화돼 가는 것이다.

국내의 빅테크 기업들은 최근 빅데이터 기반의 AI 돌봄 서비스를 선보이고 있다. 한 기업이 운영 중인 ‘AI 콜 돌봄 서비스’는 독거 노인에게 주기적으로 전화를 걸어 일상적인 대화와 함께 안부를 묻는다. 주로 식사, 수면, 건강 등 상태를 체크하지만 그 외에도 맞장구를 치거나 말에 추임새를 넣는 등 정서적인 부분까지 케어가 가능하다. 이렇게 돌봄이 가능한 이유는 바로 언어를 학습하는 머신러닝 기반의 기술이 있기 때문이다. 보통 이런 서비스는 기업이 자체적으로 보유한 초거대 AI 언어 모델을 기반으로 한다.

AI 돌봄 서비스는 만족도도 상당히 높은 것으로 나타났다. 시범 사업을 시행한 어르신들을 대상으로 서비스 만족도를 조사한 결과, 향후 AI콜 돌봄 서비스를 계속 이용하고 싶다고 대답한 이용자가 95%에 달했다. 해당 기업은 AI의 언어 모델을 더욱 고도화해서 전국의 지자체와 함께 서비스를 점점 확대할 계획이다.

서울시는 최근 고독사 위험이 큰 5~60대 1인 가구를 대상으로 ‘AI 생활관리서비스’를 시작했다. AI 생활관리서비스는 휴대전화나 집전화로 주 1~2회 AI가 전화를 걸어 밥은 잘 먹는지, 힘든 점은 없는지 등 안부를 묻는다. 외로운 사람의 소소한 말동무가 돼 주는 것이다. 서울시는 4월 시범 사업을 시작으로 2026년까지 5~6개 자치구에 있는 중장년 1인 가구 3만 명까지 서비스 대상을 넓혀갈 예정이다.

AI 챗봇 기능을 탑재한 메타버스 서비스 '오픈타운'의 채팅 화면 캡처

국내의 한 AI 스타트업은 지난 2021년 2030세대의 사회적 외로움을 줄일 수 있는 ‘메타버스 서비스’를 출시했다. 이 서비스에서는 AI 챗봇 기능을 기반으로 자신 혹은 이상형을 닮은 AI 아바타를 형성해 대화를 나눌 수 있다. 원하면 머신러닝을 통해 아바타에게 자신의 언어를 학습시킬 수도 있고, 아바타 활동을 통해 수익을 낼 수도 있다. 대화가 어려운 상황이나 대화를 원치 않을 때는 AI 모드로 변환하면 AI가 학습한 언어를 기반으로 알아서 대화를 한다. 마치 나의 도플갱어가 나를 대변하는 것처럼 말이다. 다만 기자가 직접 사용해본 결과, 정서의 맥락까지 고려한 대화까지는 어려워 보였다. 하지만 가벼운 일상의 대화는 모두 소화해냈다.


AI와 교감한다고? 그게 정말 가능해?

인간의 사회적 고립감이 계속 늘어갈수록 AI를 통해 정서를 돌보고 관리 받는 형태의 서비스는 계속 개발될 것으로 보인다. 하지만 일각에는 AI가 사람과 교감하는 데 있어 기술적 결함으로 인한 부작용은 없을지, 기술 발전에 한계는 없을지에 대한 의문도 있다.

실제로 2021년 국내의 AI 기업 스캐터랩이 출시한 AI 챗봇 서비스 이루다는 혐오 발언으로 논란에 휩싸이기도 했다. AI 챗봇이 소수집단에 대한 혐오감을 직설적으로 표현하는 등 AI의 언어 알고리즘에 결함이 발생한 것이다. 당시 이루다 측은 금지어 필터링이 적용돼 있었는데도 AI가 이를 피해갈 줄은 몰랐다며 알고리즘을 다시 업데이트 할 것이라고 했다. 이후 이루다는 언어 알고리즘 고도화를 통해 선정적·공격적·편향적인 발화를 하지 않도록 시스템을 강화했다.

이처럼 AI가 사람과 소통하는 과정에서 부작용도 있지만, 부작용을 없애고 한계를 넘어서기 위한 노력도 계속되고 있다.

AI 전문가들은 AI가 진짜 사람처럼 대화하고 사람과 정서를 나누기 위해서는 ▲시각 지능: 사람의 움직임을 인지하고 대응하는 능력 ▲언어 지능: 자연스럽게 대화를 처리하는 능력 ▲외형적 모습: AI 로봇의 외형(얼굴, 몸)을 구성하는 섬유, 고분자 소재와 이를 자연스럽게 움직이고 제어하는 데 쓰이는 엑추에이터(기계 장치) 등의 고도화가 필수적이라고 강조한다. 사람의 지능과 신체도 훈련과 학습을 통해 더 발전하고 성장하듯이 AI도 기술의 고도화를 통해 그 수준은 점점 더 나아진다는 것이다.

김세현 한국인공지능협회 기술 이사는 “각종 지능과 액추에이터 고도화를 통해 AI의 소통 능력이 점점 향상된다면, 정서적인 공감도 충분히 가능하다고 본다. 다만 이를 사람이 어떻게 받아들일지에 대한 개인차는 존재할 수 있다. 또한 기술적인 부분 외에도 외형적인 모습 등이 실제 사람과 얼마나 유사한지에 따라서도 느끼는 동질감에 차이가 날 수 있다. 어릴 적 인형에게 감정을 이입하고 대화를 하는 걸 보면 그 가능성을 가늠해볼 수 있을 것이다”라고 설명했다.

이어 “또한 중요한 것은 AI의 소프트웨어와 하드웨어 그리고 액추에이터 제어를 융합하는 기술에 있다. 이를 통해 사람의 표정과 움직임을 얼마나 비슷하게 모방할지에 따라 그 수준이 달라진다. 실제로 현재의 AI는 외부의 정보를 내부 센서 및 ADC(아날로그-디지털 변환 회로)을 통해 코딩 및 프로그래밍으로 관리할 수 있는 수준이 됐다”고 말했다.

이렇듯 AI의 지능과 모습이 계속 사람과 유사하게 발전을 이룬다면, 언젠가 불편함 없이 AI와 대화하고 정서를 나누는 때가 올 것으로 보인다.

다만 전문가들은 AI와 깊은 정서 교감을 위해서는 기술적 발전 외에도 AI에 대한 신뢰, 사람의 반응 평가에 따른 윤리적 설계 등의 요소도 굉장히 중요하다고 말한다. AI를 만든 사람도 윤리적으로 완벽하지 않기에 사람이 만든 AI의 신뢰, 윤리에 관해서는 더욱 깊은 고민과 연구가 필요하다는 것이다.

이에 대해 김세현 기술 이사는 “윤리에 대한 문제는 이미 사람의 삶에서도 해결하지 못한 부분이 많다. 또한 각 나라, 문화, 가치관에 따라 모두 차이가 있다. 그래서 AI 윤리 또한 완전히 해결되지 않을 가능성이 높다. 그래도 많은 조직들이 AI 윤리에 대한 노력과 연구를 멈추지 않는 것은, AI가 우리의 다음 세대와 인류에 미칠 영향을 생각하기 때문이다”라고 말했다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.