바이브컴퍼니 챗GPT의 단점으로 떠오른 개인정보보호 문제와 거짓 정보 답변 문제를 해결한 새로운 인공지능(AI) 검색 신제품을 개발해 기업과 공공기관 공급을 논의 중인 것으로 알려졌다.
29일 본지 취재를 종합하면 바이브컴퍼니는 6월 개발한 자연어 검색 솔루션 '바이브 서치(VAIV Search)'의 공급을 놓고 기업·공공기관 등과 논의 중이다.
바이브컴퍼니 관계자는 “기존 키워드 검색보다 빠르고 정확한 검색 결과로 업무 효율 증가를 기대할 수 있다”며 “챗GPT의 경우 데이터와 검색기록에 대한 보안 우려와 사실처럼 설명한 거짓 정보를 대답하는 할루시네이션 이슈가 있는데 이를 개선해 몇몇 기업과 공공기관에서 관심 두고 논의 중”이라고 말했다.
AI 검색 솔루션은 기존에 검색에 쓰이는 단어 배열 검색인 '키워드' 방식과 달리 찾는 정보를 일상생활에 쓰이는 문장으로 질문한 것에 답을 찾는 방식이다.
대표적으로 오픈AI사의 챗GPT가 인기를 끌고 있다. 국내에서도 마음AI, 솔트룩스, 셀바스AI등 기업들이 오픈AI관련 사업에 적극적으로 나서고 있다.
그러나 챗GPT의 경우 개인정보보호 문제와 거짓정보 답변 문제인 '할루시네이션' 이슈가 알려지며, 중요 정보를 다루는 기업과 공공기관에선 도입을 주저하고 있다.
예컨대 개인정보보호위원회는 지난달 전체회의를 열고 최근 한국 이용자 600여 명을 포함해 다량 개인정보 유출이 발생한 오픈AI에 대해 신고 의무 위반으로 과태료 360만 원을 부과하고 개선 권고를 의결했다.
개인정보위에 따르면 3월 20일부터 21일 사이 챗GPT 플러스에 접속한 전 세계 이용자 일부의 성명, 이메일, 결제지, 신용카드 번호 4자리와 만료일이 다른 이용자에 노출됐다. 이 중 한국 이용자 687명의 개인정보도 함께 유출됐다.
할루시네이션은 언어모형이 주어진 데이터나 맥락에 근거하지 않은 잘못된 정보나 허위 정보를 생성하는 것을 뜻한다. 챗GPT가 현실 세계에서 존재하지 않는 허황된 내용을 마치 사실인 양 사용자에게 출력하는 식으로 정확하지 않은 답을 제공한 사례가 일부 발견되고 있다.
바이브서치는 기계독해(MRC) 기술을 이용해 답변의 근거가 되는 원문 데이터에서 답을 찾아 출처와 함께 보여줘 생성형 AI가 허위 정보를 생산하는 할루시네이션(환각) 문제를 보완하고 답변의 신뢰성을 높였다고 설명했다.
보안 문제에 대해서도 데이터나 사용자의 정보 접근 범위를 결정할 수 있게 한 것으로 알려졌다.