불법 복제물 거르는 기준 마련 시습
인간 감정ㆍ정서 구현 어렵지만
AI 기술의 한계 놓고 의견 갈려
인류는 대화형 AI 챗GPT의 등장에 광범위하고 다양한 분야에서 한번도 경험하지 못한 새로운 세계를 기대하고 있다. 기업들은 사무공간에서부터 불어온 새로운 변화가 인간 생활에 미치게 될 영향에 대해 촉각을 곤두세우고 있다. 생성 AI로 MS워드, 한글, 파워포인트 등 작업이 순식간에 이뤄지고 있다. 시간 낭비가 일상이던 단순 사무 처리가 몇 분 만에 종료되는 시대에 진입한 것이다. 전 세계에서는 챗GPT를 산업 곳곳에 도입하는 사례가 늘고 있지만, 각종 부작용도 발생하고 있다. ‘성배’로 평가받던 챗GPT가 오히려 ‘독배’라는 지적도 나오는 상황에서‘챗GPT의 활용과 한계’에 대한 전문가 의견을 들어봤다.
챗GPT가 만들어낸 결과물이 저작권을 침해하거나 표절 문제를 일으키게 되지 않을까. 챗GPT는 기술적으로 온라인상에 있는 정보를 학습해 결과물을 내기 때문에 불법 복제물을 걸러낼 수 있을 만한 기준 마련이 시급하다. 특히 가공되지 않은 데이터를 인터넷상에서 무분별하게 수집해 저작권 침해 위험성이 높다.
이에 이현규 정보통신기획평가원 인공지능사업단장은 “챗GPT는 문장의 의미를 이해하고 생성하는 것이 아니고, 학습에 사용된 온갖 텍스트에 대해 단어들이 문장에서 등장하는 상대적인 위치를 학습해 그럴싸한 문장을 생성해 낸다”며 “이미 존재하는 문장들을 통해 단어를 어떻게 배치하면 좋을지를 배워 문장을 생성해 내는 것”이라고 말했다. 이어 “생성된 문장 역시 어디선가 비슷한 것이 있을 수밖에 없는 것”이라며 “따라서 챗GPT는 태생적으로 저작권 이슈에서 자유로울 수 없으며 누군가 일방적으로 정답을 낼 수 있는 사안이 아니고 공론을 거친 합의가 필요한 문제”라고 말했다.
홍충선 경희대 컴퓨터공학부 교수는 “2차 가공된 내용이 상업적으로 이용된다면, 또 재가공된 내용이 저작물의 무단 사용이라면 이에 대한 지식재산권료를 지불해야 한다”며 “저작권 침해는 각 나라에서 저작권 법으로 해결해야 한다”고 강조했다. 다만 “이를 위해서는 저작권 침해와 관련된 탐지 기슬에 대한 연구가 필요하다”며 “설명가능한 AI(XAI: Explainable AI)에 대한 연구를 통해 모델 학습의 중간과정에 대한 분석기술의 확보와 AI서비스 제공 시 처리과정에 대한 해당 로그의 설명이 가능하도록 하는 기술을 AI모델 내 내재화를 통해 저작권 문제 발생 시 대비가 가능하도록 해야 할 것”이라고 강조했다.
신사임 한국전자기술연구원 인공지능연구센터장은 “신경망을 기반으로 한 창작물은 매 순간 최적 확률값을 기반으로 텍스트나 영상의 부분 부분을 결정하며 생성하기 때문에, 의도를 가지고 다른 사람의 창작물을 완벽하게 베낀다고 판단하기는 어렵다”며 “그러나 특정 부분을 그대로 가져오는 현상이 최근 생성AI모델의 결과에서 종종 관찰되는 것도 부정할 수 없다”고 언급했다.
성원용 서울대 전기·전자공학부 명예교수는 “챗GPT 등 생성 AI는 훈련과정에서 패턴을 배우고, 생성과정에서는 난수발생기(random number generator)를 이용하여 출력을 내기 때문에 매번 결과가 다르게 나오고, 생성한 사람이 2차 창작물의 권한을 가질 수 있다”며 “어떤 저작물을 그대로 베껴온 것이 아니고 패턴을 배워온 것”이라고 말했다.
오픈AI가 챗GPT를 활용한 유료 수익모델을 도입했다. 지난 2월부터 챗GPT 구독 요금제 도입을 통해 유료화 정책을 펼치고 있다. 마이크로소프트는 AI 검색엔진 ‘빙’에 검색광고를 적용하며 수익화에 나서는 모습이다. 하지만 업계에서는 챗GPT가 시장점유율을 높인 뒤 향후 비용인상을 단행할 수 있다는 우려도 나타내고 있다. 이렇게 될 경우 기술개발여건이 미흡한 국내 산업계에서는 높아진 비용이 부담으로 작용할 수 있다.
이 단장은 이에 대해 “현재 정부에서도 ‘한국어 대형 언어모델 개발사업’을 통해 10억 개 수준의 매개변수를 가진 트랜스포머(Transformer)를 개발하고 있으며, 연내 3억 개 수준의 매개변수를 가진 한국어 언어모델 공개를 계획하고 있다”며 “3억 개의 매개변수를 가진 모델의 사전학습에는 엔비디아 A100 서버 1대에서 2주 정도의 시간이 걸리기 때문에 국내 중소기업에서도 거대 언어모델에 대한 사전학습이 가능하며, 초거대 언어모델에 대한 베이스 모델 제공 사업에도 뛰어들 수 있을 것”이라고 예상했다.
홍 교수는 “오픈AI는 API사용에 대해 비용지불을 요구할 것으로 생각되지만 향후에는 초거대 AI모델을 공개하는 다양한 기업들이 존재할 것이기 때문에 큰 염려는 하지 않아도 될것으로 본다”며 “국내에서는 네이버와 카카오 등이 유사모델을 구축하기 위해 노력해야 할 것”이라고 조언했다.
신 센터장은 “범용성 높은 대기업 중심의 초거대 모델의 확산 외에도, 정부와 산학연이 협력해 다양한 규모와 도메인에 활용 가능한 거대AI 기술의 구축과 공유를 활성화해야 한다”며 “초거대 AI를 활용한 인프라와 이의 공유 생태계를 활성화해, 특정 초거대 모델의 활용에 집중되지 않으면서도 원하는 서비스와 인프라 투자 규모에서 최적화해 사업화하고 연구할 수 있는 기술 인프라 구축이 추진되어야 할 것”이라고 언급했다.
성 교수는 “앞으로 국내에서도 비슷한 소프트웨어가 만들어질 것이라고 본다”며 “개발 기술이 혁신적이기는 하지만, 의외로 따라하기 쉬운 요소가 있기 때문”이라며 기술 개발에 대해 긍정적인 견해를 나타냈다.
국내 산업계 대부분의 서비스에 AI가 적용돼있고, 또 적용을 추진하고 있다. 하지만 일부 사업 중에는 AI를 적용하기 어려운 부분도 존재한다.
이 단장은 “AI로 구현하는 데 어려운 것은 인간미, 상식 개념, 인간이 갖고 있는 감정이나 정서와 같은 미묘한 변화가 발생하는 상황 등 여러 가지가 있다”며 “AI 기술의 끝은 특이점(singularity)이라고 할 수 있는데, 현재 수준의 AI에 대해서는 단순하게 학습으로 해결할 수 있는 부분이 아니다”고 말했다. 이어 “만일 특이점이 돌파되는 것이 현실화된다면 그 파장은 상상하기 어렵고, 영화 ‘터미네이터’처럼 AI가 지배하는 세계의 등장을 떠올릴 수 있을 것”이라며 “인간은 이러한 특이점의 출현이 가시화되기 전에 이러한 상황이 발생하지 않도록 다양한 대처 방안을 만들 것”이라고 강조했다.
홍 교수는 “인간의 인지능력을 추월하는 AI가 등장하기는 어렵지만, 통합적으로 문제를 해결하는 능력 측면에서는 개별 인간보다는 AI모델이 우수하다”며 “하지만 결국 인간 집단의 능력을 추월하는 AI모델의 등장은 가능치 않다고 생각한다”고 밝혔다.
반면 신 센터장은 “이 기술의 세계적인 투자 활성화와 연구개발 고도화 속도를 감안하면, 단순한 지능·능력치·숙련도의 측면에서는 평균 인간의 효율을 AI가 넘어서는 현상은 곧 가능할 것으로 전망된다”며 “이러한 기술의 활용 과정에서 사회문제화 되지 않으려면 인간 수준의, 혹은 인간보다 높은 기준치의 윤리와 가치관, 교감성을 AI가 확립하고 의사결정을 내릴 수 있어야 한다”고 강조했다.
성 교수는 “경험이나 상황에 대한 이해가 깊어야 하는 부분이 AI가 대체하기 힘든 부분”이라며 “하지만 이 부분도 AI가 빠르게 따라오고 있다”고 AI성장 속도에 대해 경고했다.