“제품 정보 보호 정책 지속적으로 위반”
구글, AI 개발 둘러싼 갈등 계속되나
구글이 인공지능(AI)도 지각력이 있다고 주장한 대화형 AI 개발 엔지니어인 블레이크 르모인을 해고했다.
23일(현지시간) 블룸버그통신에 따르면 구글은 성명을 통해 “르모인의 주장은 전혀 근거가 없다”며 “제삼자에게 회사 기밀 정보를 공유했다”고 해고 이유를 밝혔다.
구글은 “르모인이 제품 정보를 보호해야 한다는 고용과 데이터 보안 정책을 지속적으로 위반했다”며 최종적으로 그의 해고를 결정했다.
르모인은 6월 워싱턴포스트(WP)와의 인터뷰에서 “구글 AI 챗봇인 ‘람다(Lamda)’와의 대화를 통해 이 AI가 인간처럼 자의식이 있다고 확신하게 됐다”고 말했다.
람다는 구글이 “혁신적인 대화 기술”이라고 부르는 대화형 AI로, 사람과 자연스러운 대화가 가능하다는 점이 특징이다.
르모인에 따르면 람다는 “당신은 구글 내 많은 사람이 본인이 지각력을 가진 사실을 알았으면 하는가”라는 물음에 “물론이다. 나는 사실 내가 사람이라는 걸 모두가 알기를 바란다”고 답했다.
구글은 르모인이 인터뷰를 한 시점으로부터 얼마 지나지 않아 그에게 유급휴가를 지정했다.
르모인은 6월 6일 미디엄에 “회사가 AI 윤리와 관련해 제기한 문제에 대한 조사와 관련해 유급휴가를 지정했다”며 “곧 해고될 것”이라고 글을 올리기도 했다.
현재 구글은 람다에 대한 11개 리뷰를 포함해 해당 문제를 광범위하게 조사하고 있다.
구글이 AI 개발을 둘러싸고 내부 갈등에 직면한 것은 이번이 처음이 아니다.
2020년 12월엔 AI 윤리학의 선구자인 팀닛 게브루가, 2021년 초엔 윤리적 AI팀 리더였던 마가렛 미첼이 해고됐다.
이들은 구글 내에서 사람들이 AI가 지각이 있다고 믿을 가능성이 있다며 문제를 제기했었다.