과학기술정책연구원(STEPI)은 유럽연합의 ‘EU AI법’ 시행에 따른 모니터링 체계 구축과 관련 법제도 정비가 시급하다고 진단했다.
STEPI는 유럽연합 인공지능법(EU AI Act, 이하 EU AI법) 분석을 통해 안전한 AI와 관련 국내 규제체계와 산업육성의 균형점 모색 등의 시사점을 제시한 '과학기술정책 Brief Vol.31'를 21일 발간했다.
지난 1일 발효된 EU AI법은 산업육성과 규제 사이의 절충을 고민한 법안이다. 미국과 중국 등 주요 경쟁국들보다 뒤처진 AI 분야를 AI 규제 법안 마련을 통해 EU 중심으로 재편하며, 특히 시민의 기본권 보호에 맞춰 AI 윤리의 발전을 보장해야 함을 강조했다.
또 AI 관련 위험으로부터 EU 핵심가치와 시민의 기본권을 보호하는데 방점을 두고 있다.
‘EU AI법’는 주된 적용대상을 배포자로 규정하지만, 예외적으로 서비스 제공을 위해 제3자의 인프라를 사용하는 경우를 포함하여 공급자도 적용대상으로 한다는 점에서 차이가 존재한다.
‘EU AI법’는 AI를 △허용불가한 위험 △고위험 △투명성 위험 △최소 위험 등급으로 분류하여 차등 규제하는 것도 특징이다. 모든 GPAI 모델은 최신 기술문서를 작성·유지해야 하며 AI 시스템의 다운스트림 공급자가 정보와 문서를 사용할 수 있어야 함을 제시해야 한다.
아울러 ‘EU AI법’은 규제 샌드박스를 도입하여 EU 기업들의 혁신과 경쟁력 강화를 유도하는 한편, 개발된 AI 제품과 서비스가 규정을 제대로 준수하는지 상용화 전 사전테스트를 해 볼 수 있는 환경도 보장한다.
보고서는 ‘EU AI법’ 시행에 따른 모니터링 체계 구축 시급하다고 진단했다. 한국은 고위험 AI 규제 필요성에 대해 국내 정책 방향 설정과 신흥기술의 국가안보 위협 시 국가차원의 대응을 위한 공공·민간 주체의 임무와 역할에 대한 정립이 필요하다.
또 ‘안전한 AI’ 의제로 국제 규범화 대세에 참여하기 위해 AI 규제와 혁신정책 간 균형점 모색과 새로운 국가 아젠다 설정 및 관련 법제도 정비가 시급한 상황이다.
성경모 과학기술외교안보연구단장은 “EU AI법과 미(美) AI 행정명령에 이어 영국 주도의 AI 안전성 정상회담까지 ‘안전한 AI’의 국제 규범화가 대세이다”라면서 “한국은 AI관련 법제 미비로 영향력 있는 역할 수행에 한계가 있기에, 법적·제도적 기반한 대응체계 마련이 필요하다”고 말했다.