인공지능의 비윤리적인 학습과 활용을 막고 급격한 기술 발전에 따른 부작용을 방지하기 위한 ‘이루다 방지법’(지능정보화기본법 개정안)이 국회에서 발의됐다.
김상희 국회부의장(과학기술정보방송통신위원회, 경기 부천병)은 ‘지능정보사회윤리준칙’을 마련하여 지능정보기술 개발 및 공급자, 이용자 모두가 준수하게 하는 ‘이루다 방지법’(지능정보화기본법 개정안)을 대표발의했다고 17일 밝혔다.
올 초 20대 여대생을 모방한 인공지능 챗봇 ‘이루다’는 무분별한 데이터 학습으로 여성과 소수자에 대한 차별·혐오적 메시지 출력과 개인정보 활용 문제로 인해 서비스를 중단했다.
특히, 자율주행과 빅데이터가 산업의 주류로 떠오를수록 인공지능의 역할이 커져 이를 적절히 제어하기 위한 구체적이고 합리적인 인공지능 개발의 가이드라인이 필요한 상황이다.
이러한 문제를 해결하기 위해 과기부가 2020년 12월 ‘인간성을 위한 인공지능’이라는 원칙하에 ‘인공지능 윤리기준’ 발표했다. 하지만 법령이나 규칙이 아닌 도덕적 규범에 불과하여 실제 인공지능 개발에 적용하기에 추상적이고 선언적이라 구체적이고 실효적인 가이드가 필요하단 지적이 일고 있다.
김상희 부의장이 발의한 개정안에는 과학기술정보통신부가 ‘지능정보사회윤리준칙’을 제정하고 인공지능의 윤리적 검증에 필요한 인권 보장 등의 내용이 담겼다. 또, 프라이버시 보호, 다양성 존중, 공공성과 책임성, 안전성 등의 내용을 담아 보급 및 확산시키는 것을 골자로 한다.
개정안이 통과된다면 성장단계에 있는 인공지능 기술 발전을 장려하면서도 기존에 법령이나 규칙이 없던 부분을 보완하여 비윤리적인 인공지능으로 인한 사회적 부작용을 예방할 것으로 기대된다.
김상희 부의장은 “최근 문제가 되었던 이루다의 이용자 85%가 10대인 것으로 나타나 편향적인 인공지능이 아동·청소년에게 혐오와 차별 등 악영향을 끼칠 수 있다”며 “아동·청소년을 대상으로 하는 인공지능 교육 프로그램이 많이 개발되고 있어 이와 같은 사건이 또 발생할 가능성이 있다”고 강조했다.
김 부의장은 “해외의 경우 인공지능이 차별·혐오적 표현이나 비윤리적인 상황을 연출할 경우, 즉각적인 서비스 중단을 하고 있다”며 “하루빨리 개정안이 통과되어 제2의 이루다 사태 방지하고 인공지능의 윤리 신뢰성 확보 기대한다”고 밝혔다.