27일 개인정보위는 제6회 전체회의를 열고 LLM을 개발‧배포하거나 이를 기반으로 인공지능(AI) 서비스를 제공하는 오픈AI·구글·MS·메타·네이버·뤼튼에 대해 이같은 개선권고를 의결했다고 28일 밝혔다.
개인정보위는 지난해 11월부터 한국인터넷진흥원과 함께 주요 AI 서비스를 대상으로 사전 실태점검을 진행했다. 초거대 AI, 생성형 AI 서비스가 급속히 확산하며 프라이버시 침해 우려가 증대됨에 따라 국민 불안을 조기 해소하고, 안전한 서비스를 활성화하기 위해서다.
AI 단계별 개인정보 보호의 취약점을 점검한 결과 전반적으로 개인정보 처리방침 공개, 데이터 전처리, 정보주체의 통제권 보장 등 보호법상 기본적 요건을 대체로 충족한 것으로 나타났다. 그러나 세부적으로 공개된 데이터에 포함된 개인정보 처리, 이용자 입력 데이터 등의 처리, 개인정보 침해 예방‧대응 조치 및 투명성 등과 관련해서는 일부 미흡한 사항이 발견됐다.
AI 서비스 제공사업자는 인터넷에 공개된 데이터를 수집해 AI 모델 학습데이터로 사용하는데 이 과정에서 주민등록번호, 신용카드번호 등 한국 정보주체의 중요한 개인정보가 포함될 수 있는 것으로 밝혀졌다. 지난해 기준 2만999개 페이지에서 주민번호, 여권번호 등 개인정보 노출이 탐지됐다.
오픈AI, 구글, 메타는 학습데이터에서 주민등록번호 등 주요 식별정보를 사전 제거하는 조치가 충분하지 않은 것으로 확인됐다. 개인정보위는 AI 서비스 제공 단계별 보호조치 강화를 요구하고, 최소한 사전 학습단계에서 주요 개인식별정보 등이 제거될 수 있도록 인터넷에 개인정보가 노출된 것을 탐지한 데이터(URL)를 AI 서비스 제공사업자에게 제공할 계획이다.
LLM 기반 AI 서비스 제공사업자는 AI 모델이 정확한 답변을 하도록 다수의 검토 인력을 투입해 이용자 질문과 이에 대한 AI 모델의 답변 내용을 직접 열람·검토해 수정하는 방법으로 데이터셋을 만들고 있으며, 이를 AI 모델 학습 및 프롬프트 등 서비스 개선에 활용하고 있는 것으로 확인됐다.
그러나 이용자 관점에서는 본인이 입력한 데이터를 검토 인력이 투입되는 ‘인적 검토’ 과정 자체를 알기 어렵고, 중요 개인정보와 이메일 등 민감한 내용을 입력하거나 AI 서비스 제공자가 식별자 및 개인정보 제거 등 조치 없이 해당 정보를 DB화할 경우 사생활 침해로 이어질 위험이 있다.
개인정보위는 AI 모델 등 개선 목적으로 이용자 입력 데이터에 대한 인적 검토과정을 거치는 경우 이용자에게 관련 사실을 명확하게 고지하는 한편, 이용자가 입력 데이터를 손쉽게 제거‧삭제할 수 있도록 해당 기능에 대한 접근성을 제고하도록 권고했다.
아울러 AI 서비스는 종전의 서비스와는 처리하는 개인정보의 항목, 처리 방법 및 목적, 보유 및 이용 기간 등에 있어 현격한 차이가 존재하는데, LLM 복제 모델 또는 오픈 소스 형태로 배포되는 경우 LLM에 취약점이 발견돼도 후속 조치가 즉시 개선되기 어려운 사례가 확인됐다. 동일 LLM 기반의 AI 서비스라도 사업자에 따라 개인정보 및 아동‧민감정보에 대한 답변 등 침해 예방 조치의 정도가 다른 것으로 나타났다.
이에 개인정보위는 AI 서비스 관련 내용을 종합해 개인정보 처리방침을 구체적으로 안내하고, 부적절한 답변에 대한 신고 기능을 반드시 포함하며 AI 서비스와 LLM의 취약점 발견 시 신속히 조치할 수 있는 프로세스를 갖추도록 개선 권고했다.