보안 위험 커..."최적화 된 솔루션 준비"
삼성전자 디바이스경험(DX)부문이 보안 우려로 사내에서 챗GPT를 비롯한 생성형 AI(인공지능)의 사용을 금지하기로 했다. 대신 자체적인 생성형 AI 개발을 추진해 임직원의 업무 효율성을 높인다는 방침이다.
2일 업계에 따르면 삼성전자는 지난달 28일 DX부문 임직원을 대상으로 "사내 챗GPT 등 생성형 AI 사용 정책과 관련해 이달부터 사내 PC를 통한 생성형 AI 사용을 일시적으로 제한한다"고 공지했다.
삼성전자 측은 "생성형 AI에 입력된 내용은 외부 서버에 전송ㆍ저장된 뒤 AI 학습에 활용되므로 한번 업로드된 내용은 회수, 삭제가 불가능해 회사의 중요 정보가 타인의 질문에 대한 답변으로 활용될 수 있는 등 심각한 보안 위험이 있다"고 설명했다. 또 "보안지침을 성실히 준수할 것을 요청하며, 이를 위반할 경우 회사 정보 유출 또는 유출로 인해 최대 해고를 포함한 징계 조치를 받을 수 있다"고 기재했다.
이번 조치는 생성형 AI로 인한 회사 내 기밀 정보 유출을 방지하기 위한 것으로 보인다. 앞서 지난 3월 삼성전자의 반도체를 담당하는 DS(디바이스솔루션)부문은 사업장에 챗GPT를 허용한 후 세 차례의 정보 유출 사고가 발생했다. 일부 임직원이 반도체 관련 프로그램에 대해 챗GPT에 오류 해결을 요청하며 정보를 입력한 사례가 모니터링 과정에서 밝혀진 것이다.
이후 삼성전자는 사내 게시판에 챗GPT 사용에 대한 주의를 환기하는 메시지를 공지하고, 질문당 업로드 용량을 1024바이트로 제한하는 등의 조치를 취했다. 지난달에는 DX부문 임직원을 대상으로 챗GPT 사용과 관련한 설문조사를 시행한 결과 임직원 65%가 챗GPT에 대한 보안 우려를 표한 것으로 알려졌다.
삼성전자는 대신 자체적으로 다양한 형태의 AI 모델을 활용해 번역이나 문서 요약, 소프트웨어 개발 지원 등에 최적화된 솔루션을 준비하는 것으로 알려졌다. 이날 공지에서도 “임직원들이 보안상 안전한 환경에서 생성형 AI를 활용해 업무 편의성과 효율성을 높일 수 있도록 대응 방안을 검토 중”이라는 내용이 포함됐다. 번역ㆍ문서 요약, 소스 코드 개발 지원 등에 최적화한 AI 솔루션 등을 내놓을 방침이다.
이와 함께 업무 관련 정보의 업로드 차단을 위한 보완책 등도 검토 중인 것으로 알려졌다.