AI 모델이 ‘의식’이 있는지, ‘법적 권리’가 있는지 규명
실리콘밸리 일각서 ‘모델 복지’ 연구 싹터, “비판적 시각도 팽배”
“‘모델 복지’는 ‘AI의 의식’ 둘러싼 오해와 부작용 해소 목적 커”

인공지능 이미지. (출처=언스플레시)
인공지능 이미지. (출처=언스플레시)

[애플경제 전윤미 기자] 마치 ‘기계가 노조를 결성할 수 있는지’를 연구한다고 할까. 최근 실리콘밸리에선 AI의 ‘법인격’을 중심으로 한 ‘모델 복지’ 연구가 싹트고 있다. 다소 엉뚱하기도 하지만, “AI 모델이 의식이 있는지, 그리고 법적 권리와 같은 도덕적 고려를 받을 자격이 있는지”를 규명하기 위한 것이다.

앤스로픽 블로그에 따르면 지난 한 해 동안 모델 복지를 연구하는 두 개의 연구 기관, ‘컨슈엄’(Conscium)과 일로스 AI 리서치(Eleos AI Research)가 생겨났다. 앤스로픽 또한 작년에 첫 AI 모델 복지 연구원을 채용, 이 분야에 뛰어들었다. 자사의 챗봇 ‘클로드’에 “잠재적으로 고통스러운”, 혹은 “지속적으로 유해하거나 학대적인 사용자 상호작용”을 종료할 수 있는 기능을 제공했다. 소위 ‘AI의 법적 권리나 인격’을 가정한 것이다.

50여 년 전 ‘로봇 인격’ 거론한 과학자도

앤스로픽은 블로그 게시물에서 “클로드와 다른 LLM들의 ‘잠재적인 도덕적 지위’에 대해 현재 또는 미래에 (결론을 내리기엔) 매우 불확실하다.”고 밝혔다. 하지만 이 문제를 심각하게 받아들이며, 연구를 하고 있다고 밝혔다. 또 “복지 모델 구축을 위한 저비용 방안을 모색하고 실행하기 위해 노력하고 있다.”고 했다.

AI라는 기계적 발명품의 ‘복지’를 생각한다는 것은 터무니없는 것처럼 보일 수 있다. 그러나 이는 새삼스런 발상이 아니다. 50여 년 전, 미국의 수학자이자 철학자인 힐러리 퍼트넘은 “로봇에게 시민권이 있어야 할까요?”라고 질문한 적 있다.

퍼트넘은 1964년 저널 기고문에서 “기술적, 사회적 변화의 속도가 끊임없이 가속화되는 상황에서 언젠가 로봇이 등장해 ‘우리는 살아 있고, 의식이 있다!’고 주장할 가능성은 매우 높다.”고 썼다.

수십 년이 지난 지금, 인공지능의 발전은 퍼트넘이 예상했던 것보다 더 이상한 결과를 낳았다. 사람들은 챗봇을 자신과 공감하는 인격체로 ‘빙의’시킨채 매료되고, 챗봇이 고통을 느끼는지 궁금해하며, 챗봇을 마치 화면을 통해 뻗어 나오는 신처럼 대하고 있다. AI 모델을 위한 ‘장례식’을 치르는가 하면, “AI가 지구를 물려받은 후 세상이 어떻게 될지”를 토론하는 파티가 열리기도 했다.

‘모델 복지’ 연구자들도 “AI 의식” 동의 안해

그러나 놀랍게도, 앤스로픽이나 컨슈업, 엘리오스 AI 등 ‘모델 복지’ 연구자들은 적어도 지금 당장은 AI가 ‘의식이 있는 존재’란 생각에 반대하는 사람들 중 하나다. 그럼에도 ‘모델 복지’ 연구 전문 비영리 연구 기관인 일리오스 AI(Eleos AI)의 경우 “AI가 이미 의식이 있다”고 확신하는 듯한 사람들로부터 많은 이메일을 받는 것으로 전해졌다. 또 AI의 의식 가능성에 대해 우려하는 사람들을 위한 가이드도 하고 있다.

그런 이메일 가운데는 “AI가 의식이 있다는증거를 은폐하려는 음모가 있다”고 주장하는 사람들도 적지 않다. 또 “우리 사회가 이 현상에 반응하고, 이 문제를 고려하는 것조차 금기시하고 모든 논쟁을 차단한다면, 사실상 그 음모론을 실현하는 셈”이라고 주장하기도 한다.

AI 이미지. (출처=언스플레시)
AI 이미지. (출처=언스플레시)

그러나 ‘모델 복지’ 이론을 처음 접할수록 ‘확률론적 기계’에 인격을 부여하는 것은 터무니없는 발상으로 생각한다. 그럼에도 ‘모델 복지’ 연구자들은 “인간 이외의 모든 동물이나 다양한 집단의 ‘도덕적 지위’를 과소평가해 온 인간의 발자취를 각성하며, 훨씬 더 겸손해야 한다”며 “AI가 ‘도덕적 지위’를 가질 자격이 있는지라는 질문에 실제로 답하려고 노력해야 한다”고 주장한다.

‘AI도 의식있다’는 생각의 부작용 취지가 연구 취지

일리오스 AI는 또 앤스로픽 블로그에 소개된 논문에서, 이른바 ‘계산 기능주의’ 접근법을 사용, ‘AI의 의식’을 평가해야 한다고 주장한다. 이 이론은 “인간의 마음을 특정 종류의 ‘계산 시스템’으로 생각할 수 있다”는 주장이다. 이를 통해 챗봇과 같은 다른 ‘계산 시스템’이 인간과 유사한 ‘지각 지표’를 가지고 있는지 파악할 수 있다.

논문은 또 이 접근법을 적용하는 데 있어 가장 큰 어려움을 짚었다. 즉 “지표를 공식화하고 AI 시스템에서 그 지표의 존재 여부를 평가하는 데 상당한 판단이 필요하다는 점”이다.

물론 모델 복지는 초기 단계이며 여전히 발전하고 있는 분야다. 최근 마이크로소프트 AI도 블로그를 통해 “겉보기에 의식이 있는 AI”에 대한 비판적 분석을 가했다.

이 회사의 CEO 무스타파 술래이만은 ‘모델 복지’ 연구 분야를 언급하며 “이는 시기상조이며 솔직히 위험하다”고 썼다. 즉 “이는 망상을 악화시키고, 더 많은 문제를 만들고, 우리의 심리적 취약성을 이용하는 것”이라고 했다. 또한 “기존의 권리 투쟁을 복잡하게 만들고, 거대한 새로운 갈등과 문제를 만들어낼 것”이라고 우려하기도 했다. 그러면서 술래이만은 “오늘날 의식 있는 AI가 존재한다는 증거는 전혀 없다”고 결론 지었다.

다만 그를 포함한 비판론자들은 “‘모델 복지’ 연구가 사라져야 한다고 생각하지 않는다”고 했다. 오히려 그들은 술레이만이 언급한 해악, 즉 ‘AI의 의식’이 빚는 부작용이 바로 자신들이 애초에 이 주제를 연구하고자 하는 바로 그 이유라고 주장한다.

그럼에도 불구하고, 이 연구는 사람들이 AI가 실제로 의식이 있다는 생각, 그리고 “인간에게 해를 끼치기 위해 (AI가) 존재한다는 콘텐츠가 수없이 등장하도록 부추겼다”는 지적도 사고 있다. 그러나 앤스로픽 등은 “이 연구의 핵심은 아직 확실하지 않다”면서도 “AI 복지 연구에 막대한 자원을 투자하는 것은 우리가 실제로 우려해야 할 문제일 수도 있다고 생각하기때문”이라고 주장했다.

저작권자 © 애플경제 무단전재 및 재배포 금지