정치적 허위정보·피싱 사이트에 악용될 수도
부실한 정보 학습에 AI 언어모델 붕괴 가능성
12일(현지시간) 월스트리트저널(WSJ)은 챗GPT 등 생성형 AI가 본격적으로 출시된 이후 AI로 생성된 콘텐츠가 급증하면서 인터넷 이용자들이 틀렸거나 불필요한 내용이 담긴 콘텐츠를 걸러내는 작업이 더 길어지게 됐다고 진단했다.
실제로 뉴스사이트 평가회사인 뉴스가드는 5월 초 AI를 활용해 콘텐츠를 제작하는 가짜뉴스 웹사이트 49개를 발견했다고 밝혔다. 이후 6월 말 기준으로는 277개로 급증했다. WSJ 칼럼니스트 출신인 고든 크로비츠 뉴스가드 공동설립자는 “AI를 활용한 가짜뉴스 웹사이트가 기하급수적으로 증가하고 있다”면서 “이들은 구글의 온라인 광고 네트워크를 통해 돈을 벌기 위해 만들어진 것으로 보인다”고 설명했다.
동영상 사이트 유튜브에서도 챗GPT 관련 콘텐츠가 급증했다. 문제는 ‘챗GPT로 일주일 만에 수천 달러를 벌 수 있다’고 주장하는 등 이른바 ‘정크 콘텐츠’가 넘쳐나는 것이라고 WSJ는 지적했다.
특히 가짜뉴스를 넘어 정치적 허위정보와 해킹에 사용되는 표적 메시지 생성에도 AI가 악용될 수 있다는 우려도 커지고 있다. 사이버보안업체 지스케일러(Zscaler)는 “아직 범죄자들이 AI를 광범위하게 악용하고 있다고 말하기에는 이르지만, 피싱 사이트를 만드는데 활용될 가능성이 충분하다”고 지적했다.
전문가들은 인터넷에 AI가 만든 가짜 또는 부실 콘텐츠가 늘어나면 늘어날수록 AI 개발업체에도 악재라고 지적했다. 챗GPT는 때때로 잘못된 답변을 생성하거나 완전히 일관성이 없는 내용을 만드는데, 이는 AI의 언어모델이 인터넷상에 공개된 데이터를 학습하는 것에서 비롯된다. WSJ는 “AI가 학습해야 할 방대한 데이터가 AI 자체 생산 콘텐츠로 점점 더 채워지게 되면 언어모델의 유용성이 떨어져 결국 모델이 붕괴될 수 있다”고 경고했다.