EU 법안은 AI 개발자들이 안면 인식 데이터를 모으고 분류하는 행위를 금지하는 등 규제에 초점을 맞췄다. 특히 규정을 위반하는 기업은 최대 3500만 유로(약 504억 원) 또는 전 세계 매출의 7%에 해당하는 벌금이 부과되는 등 규제 내용과 벌금 등 처벌 규정을 구체화했다는 점에서 의의가 있다.
EU뿐만 아니라 오픈AI의 GPT4에 이어 구글의 제미나이, 일론 머스크의 X.AI 등 빅테크가 앞다퉈 생성 AI를 출시하자 선진국을 중심으로 AI 규제 마련에 한창이다. 바이든 행정부는 지난해 10월 AI 모델이 국가안보나 경제 안보 등의 위험을 초래할 경우 이를 연방정부에 통지해야 한다는 내용의 ‘AI 행정명령’을 발표했다. 우리나라는 지난해 9월 디지털 권리장전을 발표한 데 이어 11월 AI 안전 정상회의에서 28개국과 함께 AI 위험 방지 협력에 합의한 바 있다.
AI 기술 개발만큼 선진국들이 AI 규제 선점에 공들이는 이유는 뭘까. 단연 AI 분야 세계 표준화의 주도권을 확보해 자국에 유리한 고지를 선점하기 위해서다.
윤석열 대통령이 지난해 9월 ‘뉴욕 디지털 비전 포럼’에서 디지털 권리장전의 기본 원칙을 제시한 이유도 우리나라에 유리한 방향으로 국제 표준을 만들어 AI 분야에서 우위를 선점하겠다는 목표를 제시한 것이다.
자국 AI 선도기업이 없는 유럽의 경우 이 분야를 선도하는 오픈AI나 구글, 메타 등 미국 AI 빅테크를 견제하기 위해 서둘러 규제의 칼을 뽑았다는 해석이 나온다. 실제 EU의 경우 이미 디지털서비스법(DSA), 디지털시장법(DMA)을 도입해 플랫폼 빅테크의 유럽시장 진입을 견제한 바 있다.
당초 우리나라도 세계 최초로 AI법을 만들어 국제 표준을 제시하겠다는 목표를 내걸었다. 하지만 연구개발(R&D) 예산 삭감, 우주항공청 입법, 방송3법 등 각종 현안에 밀려 국회 문턱조차 넘지 못하고 있다. AI 기본법(AI 산업 육성 및 신뢰 기반 조성에 관한 법률)은 지난해 2월 과학기술정보방송통신위원회 법안소위를 통과했지만 표류 중이다.
AI를 비롯한 첨단기술 분야가 국가 안보와 직결되고 우리나라가 올해 5월 영국에 이어 두 번째로 AI 안전 정상회의를 개최할 예정인 만큼 구체적인 규제 확립을 추진해야 할 필요가 있다는 지적이 나온다.
윤정현 국가안보전략연구원 부연구위원은 “AI 활용을 둘러싼 플랫폼 장악이나 데이터 확보, 규범 적용 등 글로벌 경쟁 구도 속에서의 한국의 전략적 위치 진단과 국익 차원에서 주도해야 할 탐색이 필요하다”며 “진화된 생성형 AI의 사회 전방위적 위협에 대한 다양한 부정적 사건들의 가능성을 열어두고, 범정부 차원의 추진전략과 법제도적 개선방안 등에 대한 접근방향을 모색해야 한다”고 설명했다.