생성형 AI 악용한 보안 위협 동향 공유 및 예방‧대응방향 집중 논의
정부가 챗GPT 등 생성형 인공지능(AI) 보안 위협에 대응하기 위한 논의에 돌입했다. 생성형 AI를 악용해 악성코드나 랜섬웨어, 피싱메일 등 사이버 공격에 활용할 수 있다는 우려가 제기되자 서둘러 규제 방안 논의에 착수하는 모양새다.
과학기술정보통신부 박윤규 2차관은 13일 서울 송파구 이글루코퍼레이션에서 정보보호기업, 학계, 유관기관과 챗 GPT 등 생성형 인공지능(AI)의 보안 위협 대응방향을 모색했다.
박윤규 제2차관은 “챗GPT 등 생성형 인공지능 기술은 앞으로 더욱 발전해 우리 일상에 폭 넓게 보편적으로 사용 될 것인 만큼 보안 위협 우려에 적극적으로 대응해 나갈 필요가 있다”며 “정부는 생성형 인공지능 서비스를 국민이 안심하고 이용하도록 안전한 사이버환경을 조성하고 갈수록 지능화‧고도화되는 사이버위협에 대한 대응역랑을 갖추기 위해 최선을 다하겠다”고 강조했다.
이날 토론회는 최근 생성형 인공지능 서비스의 이용 확산에 따른 국내외 보안 위협 동향과 산업적 파급 효과 등을 공유하고 국가 차원의 보안 위협 대응방향을 논의하기 위해 마련됐다.
지난해 출시된 챗GPT가 출시 2달 만에 월간 이용자가 1억명을 돌파하는 등 전례 없는 급격한 성장세를 보이는 동시에 사이버 공격에 악용되고 있다. 여기에 챗GPT 이용 과정에서 개인정보 및 기업의 영업 기밀 정보가 유출되는 등 보안 문제가 대두되며 우려의 목소리가 제기되는 상황이다. 실제로 다크웹 등에서 챗GPT를 사용해 새로운 악성코드 등을 제작할 수 있는 사이버 공격 도구를 생성했다는 시도가 발견되기도 했다. 이 때문에 인공지능을 악용한 보안 위협에 대응하는 방안을 만들어야 한다는 목소리가 계속해서 나오고 있다.
이미 미국이나 EU(유럽연합) 등 해외 주요국에서는 챗GPT 등 인공지능 기술에 대한 위험성을 우려하면서 안전한 사용과 신뢰 환경 구축을 위한 규제 방안 논의에 착수하고 있는 상황이다.
이날 토론에서 전문가들은 생성형 AI의 보안 위협에 대한 대응이 필요하다고 공감대를 형성하고 사이버공격에 대한 예방과 대응체계를 마련해야 한다고 주문했다.
김정희 한국인터넷진흥원 미래정책연구실장은 “생성형 AI 악용 공격을 대비한 대응체계를 정비하고 중요한 데이터와 개인정보 등을 안전하게 활용할 수 있도록 AI 보안 관리 체계가 확립돼야 한다”며 “생성형 AI가 만들어낸 악성코드를 탐지·분석하는 기술을 개발하고 사고 전파를 막기 위한 정보 공유 체계를 강화해야 한다”고 말했다.
정일옥 이글루코퍼레이션 연구위원 “챗GPT와 같은 대규모언어모델 AI의 성능은 우수하지만 틀린 것을 정답처럼 제시하는 환각으로 보안 분야의 신뢰성이 흔들리는 경향이 있다”며 “데이터 보안에 필요한 비식별화와 적대적 AI에 대한 방안을 마련이 필요하다”고 제언했다.