구글의 대화 챗봇 ‘람다’, 해당 직원 “사람처럼 지각 능력 지녀” 주장
회사측 “사내 보안 정책 위반” 해고, 고도의 인공지능 논란 다시 불지펴
[애플경제 김향자 기자] 장차 인간과 흡사한 희로애락의 감성을 갖춘 인공지능이 출현할 것이라는 주장도 난무하고 있다. 이른바 ‘인조인간’을 연상케하는 이런 ‘괴담’을 둘러싼 갈등이 최근 구글에서 불거졌다.
로이터 통신에 따르면 구글은 최근 자사의 유능한 소프트웨어 엔지니어 한 사람을 해고했다. 이유는 해당 직원이 자신이 개발한 AI 챗봇이 (사람처럼) 지각(혹은 감성)을 갖추고 있다고 자신하며 이를 공공연하게 주장하고 나선 때문이다.
이에 구글 본사인 알파벳(주)은 “구글의 인공지능(AI) 챗봇 라엠다(LaMDA)를 마치 (한 인간처럼) 스스로 사고하고 지각을 갖춘 ‘인물’이라고 주장한 소프트웨어 엔지니어를 해고시켰다”고 밝혔다. 마치 자신이 한 인간을 창조한 것 마냥 “떠들고 다니며, 확신을 가졌다”는 것이다.
구글은 이미 지난 달 문제의 소프트웨어 엔지니어 블레이크 르무인을 휴직시킨 바 있으며, 그 후 다시 그가 “회사 정책을 위반했다”며 이런 결정을 내린 것이다. 이와 함께 구글은 자사의 챗봇인 ‘람다’(LaMDA)에 대한 그의 (인간다운 로봇이라는) 주장은 “전혀 근거가 없다”고 밝혔다.
이런 결정은 빅테크를 중심으로 아직 그 정당성이 입증되지 않고 있는 ‘초고도의 인공지능’ 개발에 대한 우려가 팽배해있는 가운데 내려진 것이다. 자칫 구글이 앞장 서서 이런 ‘초대받지 않은’ 인공지능을 섣불리 개발하고 있다는 세간의 의구심을 불식시키려는 의도로 읽히는 대목이다.
실제로 이를 입증하듯, 구글 대변인은 로이터 통신에 보낸 이메일에서 “이 주제(인공지능)에 대한 오랜 약속에도 불구하고, 블레이크가 여전히 제품 정보를 보호할 필요가 있는 명확한 고용 및 데이터 보안 정책을 집요하게 위반하는 것을 선택한 것은 유감스럽다”고 해고 사유를 분명히 밝혔다. 초고도의 인공지능이라는 ‘선’을 넘은 탓도 있지만, 그 보다는 ‘사내 기밀 누설’의 책임에 더 무게를 둔 듯한 뉘앙스다.
앞서 지난해 구글은 문제의 챗봇 ‘LaMDA’(Language Model for Dialogue Applications)를 개발했다. 이는 그 동안 구글이 축적해온 자체 연구 성과와 기술을 기반으로 개발된 것이다. 이는 사람 간의 대화를 학습시키고, 훈련된 트랜스포머 기반 언어 모델에 기반을 둔 것이다. 즉, ‘람다’는 인간의 모든 것을 학습하고 체화시킬 수도 있다는 얘기다.
그러나 구글과 많은 주요 과학자들은 “‘람다’가 아직은 설득력 있는 인간의 언어를 만들어내기 위해 고안된 복잡한 알고리즘일 뿐”이라며 해고 당한 직원인 르무인의 견해를 잘못된 것이라고 일축했다. 그럼에도 이 사건은 고도의 인공지능의 위험성과 기술적 전망, 윤리적 문제 등을 함축한 에피소드로 주목받고 있다.
