[이슈분석] 챗GPT, 개인정보 침해 우려 확산
상태바
[이슈분석] 챗GPT, 개인정보 침해 우려 확산
  • 곽중희 기자
  • 승인 2023.03.06 11:13
  • 댓글 0
이 기사를 공유합니다

개인정보위-국회, 챗GPT 정보 침해 여부 검토 

출시 두 달 만에 챗GPT의 이용자가 1억 명을 돌파하면서 서비스를 개발한 오픈AI의 기업 가치만 38조 원에 달한다는 평가가 나왔다. 하지만 챗GPT의 고공행진 속에서도 부작용에 대한 우려는 계속 나오고 있다.

챗GPT에서 우려되는 큰 문제 중 하나가 바로 개인정보 침해다. 챗GPT는 수집한 수많은 데이터를 바탕으로 서비스를 제공한다. 물론 챗GPT가 직접 개인정보를 수집하지는 않지만, 챗GPT를 학습시키기 위해 수집하는 방대한 데이터 중에 개인정보가 포함될 수 있다는 것이 문제다.

전문가들은 챗GPT가 학습한 정보에는 출판물, 보도 기사 등 공신력을 가진 정보 외에도 사실 여부가 확인되지 않은 SNS와 블로그의 게시글, 댓글 등 개인정보가 포함된 내용이 다수 포함돼 있다고 지적한다.

실제로 지난 2021년에는 스캐터랩이 개발한 AI 챗봇 이루다에서 사용자들의 카카오톡 데이터 1700건이 외부에 유출되는 사고가 발생하기도 했다. 물론 2022년 이루다는 개인정보 보호 조치를 정비한 후 다시 서비스를 재개하긴 했지만, 이루다 외에도 여전히 새로운 AI 서비스가 우후죽순 나오고 있어 개인정보 유출에 대한 우려를 지워버릴 수 없는 상황이다.

이에 국내외 정부 기관과 학계 등에서는 챗GPT 등 AI의 개인정보 침해와 관련된 규제안을 마련해야 한다는 목소리가 계속해서 나오고 있다.

해외 기업, 개인정보 침해 소지로 챗GPT 금지령 내려

기자가 챗GPT에게 챗GPT의 데이터 학습 과정에서 ’개인정보 침해’가 발생할 수 있냐고 질문했다. 그러자 챗GPT는 “챗GPT는 개인으로부터 직접 데이터를 수집하지 않지만, 학습에 사용되는 일부 자료에는 제3자 기관이나 개인이 연구 목적으로 수집한 문자메시지, SNS 게시물, 이메일 등 개인정보가 포함될 수도 있는 것이 사실이다. 데이터 학습 과정에서 개인정보를 사용할 경우 문제가 발생할 수 있다. 이에 개인정보를 보호하기 위해 해결해야 윤리적 문제가 제기된다”라고 말헀다. 챗GPT도 자신의 학습 과정에서 개인정보 침해가 발생할 수 있다는 사실을 인정한 것이다.

일부 해외 기업들은 실제로 챗GPT 사용이 개인정보나 기업의 고객 정보를 침해·유출할 수도 있다는 우려로 사용 금지령을 내렸다.

미국의 은행인 JP모건체이스는 2월 22일 사내 IT 기기에서 챗GPT 사용을 금지한다고 발표했다. 특별한 문제가 발생한 것은 아니지만 정보 유출 등 혹시 모를 사고를 예방하기 위한 차원에서라고 JP모건체이스는 밝혔다. 

전체 기사를 보시려면 로그인 필요

로그인 또는 회원가입을 해주세요. (회원만 열람가능)

로그인 회원가입


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.