데이터 사용 관련 사회적 합의ㆍ정부 규제 필요하단 지적도
한국도 인공지능(AI) 규제에 전략적인 접근이 필요하다는 지적이 나온다. 특히 우리나라가 오는 5월 AI의 안전한 활용을 위한 ‘미니 정상회의’를 영국과 공동 개최하는 만큼 글로벌 주도권을 확보할 수 있어야 한다는 지적이 나온다. 다만 규제가 기업들의 기술 개발에 발목을 잡을 수 있는 만큼 AI 기술 개발 현장에서는 “AI 기술 자체를 규제하는 게 아니라, 악의적 활용에 대한 규제가 필요하다”고 입을 모은다.
AI 기술업계는 한국의 인공지능 규제는 ‘인공지능을 어떻게 발전시켜 나갈 수 있는지’에 대한 가이드라인이 돼야 한다고 입을 모은다. 세계에서 가장 먼저 ‘AI 규제법’을 꺼내든 유럽연합(EU)은 자국의 글로벌 빅테크가 없어 AI 주도권을 잡기 위한 의도가 자칫 ‘일괄 규제’로 흐를 수 있다는 우려를 사고 있다.
배경훈 LG AI 연구원장은 “AI 기술도 발전하면서, 전체적인 산업 진흥이 될 수 있는 측면에서 종합적인 지혜가 필요하지, 단편적인 제재나 규제는 한국의 AI 발전에 도움이 되지 않을 것 같다는 생각이 든다”고 말했다.
네이버의 한 관계자는 “장기적으로 AI의 안전한 사용을 위해 규제가 필요하지만, 글로벌에서 각 국가들이 AI에 대한 자신만의 룰을 만들고 이를 가지고 기술 주도권을 가져가는 움직임이 필요하다”며 “각 국가의 AI의 경쟁력을 확보하는 차원에서 균형있게 규제를 바라봐야 한다”고 말했다.
이를 위해 AI 연구·개발 현장에서는 문제 해결 규제, 자율규제 바탕의 체크리스트 마련 등을 제안했다.
배경훈 원장은 한국의 AI 규제 마련에 대해 “AI 활용에 있어 예상되는 ‘어떤’ 문제를 ‘어떻게’ 해결 할지에 초점을 맞춰야 한다”며 “일어나는 모든 현상을 다 막겠다는 기준은 안 될 것 같다”고 말했다. 빠르게 발전하는 AI 특성 상 여러 이슈가 발생하면서 진화, 발전할 텐데 현상이 일어날 때 마다 규제를 만드는 게 아니라 근본적인 문제를 해결할 수 있는 방식으로 규제를 마련해야 한다는 설명이다.
카카오 한 관계자는 “자율규제 형식으로, 기업 자체적으로 만든 AI 윤리 체크리스트 또는 정부에서 제공하는 가이드라인을 기초로 만든 체크리스트를 통해 기업의 책무성을 강화할 수 있을 것”이라고 내다봤다.
‘데이터 저작권’ 가이드라인에 대한 요구의 목소리도 높았다. 익명을 요구한 한 AI 개발 기업의 관계자 역시 “AI를 개발하는 기업 입장에서 학습데이터를 확보할 때 아직 데이터에 관한 규정이 없다보니 데이터를 어떤 식으로 권리 보호를 할지 없어 답답하다”며 “저작물 이용에 관한 기준이 가장 필요한 상황”이라고 토로했다.
배 원장은 “AI를 학습하기 위해서는 서적데이터든 뉴스데이터든 데이터가 중요하다”며 “어느 정도 선에서 이 데이터를 사용할 수 있을지에 대한 사회적 합의나 정부의 규제가 필요하다”고 말했다.
업스테이지 김근교 이사는 “데이터의 저작권이 문제”라며 “저작권에 대한 보호력을 떨어트려야 하는 건 아니지만 발전을 위해서는 파운데이션 모델같은 모델을 만드는 기업들 입장에서는 저작권에 위배되지 않고 학습할 수 있는 환경이 돼야 할 것”이라고 말했다.