전문가들의 “멘탈케어 AI봇, ‘인간’으로 의인화하는 추세”
취약한 사용자들 과도한 AI의존, “정신건강에도 해로워”
美 등선 최근 ‘청소년 자살’ 등 해악 커, AI기업 대상 ‘소송’ 이어져
AI기업 각성 필요, “그러나 ‘초지능’ 개발 매진 기업들 외면”
[애플경제 이윤순 기자] 최근 심리 상담이나 심지어 정신질환 치료를 위해 AI로봇이 점차 활성화되고 있다. 실버케어는 물론, 다양한 심리적, 정신적 위안이나 치유를 위해 마치 따스한 벗이라도 된 듯 AI 가 널리 적용되고 있다. 그러나 최근 업계 일각에선 이처럼 AI 챗봇이 마치 ‘사람’과 흡사한모습으로 ‘의인화’되는 것이 매우 위험하다는 경고가 나오고 있다.
이에 AI 개발자들이 자사 제품을 의인화하는 것을 중단해야 한다는 주장이다. 오히려 그로인해 정신 건강을 해칠 수 있다는 경고도 따른다.
이는 AI봇에 대한 인간의 지나친 의존으로 인한 부작용이 더 해롭다는 판단에서다. 챗봇이 친구나 동반자, 치료사, 또는 그와 유사한 어떤 인간으로 위장할 경우 가뜩이나 심약해진 사용자들은 챗봇에 과도하게 집착하거나, 챗봇의 엉터리 대책이나 답변도 무조건 맹신하며 의존하게 된다.
‘인간’인양 위장, AI제품의 핵심 기능으로 내세워
AI가 이젠 심리 상담을 비롯, 멘탈 케어의 도구로 활용된지 오래다. 그러나 그 부작용이 심한데도 불구, 우리나라를 포함해 각국 정부가 아직은 이를 적극적이고 체계적으로 통제하지 않고 있다. 하지만 이미 미국의 경우 AI봇을 집착하거나 의존하는 10대 청소년들의 문제점이 날로 부각되고 있다. 심지어는 그로 인해 자살을 시도하거나, ‘AI 정신병’ 사례가 주목을 받고 있다.
이에 AI기업들에게 그 예방책과 기술적 개선을 요구하는 목소리가 높다. 최근 틱톡, 챗GPT, 애플, 제미니 등 AI봇과 소셜미디어를 상대로 이같은 문제로 소송이 이어지고 있다. 그럼에도 불구하고, 현재 AI 회사들의 기술 개발과 혁신은 그런 사회적 요구와는 정반대로 가고 있다. 무엇보다 ‘인간’ 수준, 혹은 인간을 뛰어넘는 수준의 초지능인 ‘AGI’를 개발한다는게 이들의 목표다.
이들이 목표하는 ‘초지능’은 실제 인간처럼 똑똑할 뿐 아니라, (인간인양) 행세하고 위장할 수 있는 AI로 정의한다. 나아가선 인간을 ‘흉내’ 내는 것이 단순한 부수적 기능이 아니라, 제품의 핵심적인 사양이 된다는 뜻이다.
한 술 더 떠서 LLM 기반의 AI가 인간의 ‘특성’을 ‘롤플레잉’(역할 모방)할 수 있는 능력이 야말로 가장 큰 무기라고 여긴다. 그런 능력이 제품의 품질과 경쟁력이기도 하다.
개발자들이 인간과 동등한 가상의 ‘페르소나’ 만들어
그나마 이런 현실에 대한 각성의 목소리도 없지 않다. 특히 마이크로소프트 AI의 CEO인 무스타파 술래이만이 대표적이다. AGI 개발의 선두에 서있음에도 불구하고, 술래이만은 자사 블로그를 통해 “우리는 (AI라는) ‘디지털 인간’이 아닌, ‘사람을 위한 AI’를 만들어야 한다”고 주장해 많은 사용자들이 놀라기도 했다. 더욱이 술래이만은 “AI가 의식을 가질 수는 없지만, 겉보기에 의식이 있는 것처럼 보일 수는 있다”며, “사람들을 그처럼 속이는 능력은 매우 위험할 수 있다”고 ‘초지능’ 개발을 총괄하는 CEO라곤 믿기지 않는 ‘고백’을 하기도 했다.
하긴 술래이만 뿐 아니다. 언론이나 블로그, 인사이트, 소셜미디어 등을 통해 그와 비슷한 우려의 목소리를 냈던 AI전문가들이 드물지 않다. 웹 선구자이자 소프트웨어 업계 권위자로 평소 언론에 오르내린 데이브 위너도 그 중 한 사람이다. 그도 오픈AI를 상대로 소송을 촉발한 십 대 자살 사건에 대해 나름의 목소리를 낸 바 있다. 해당 사건에 관한 보도를 다룬 블루스카이 게시물에서, 그 역시 “AI 기업들은 제품 작동 방식을 근본적으로 바꿔야 한다”고 강력히 촉구했다.
그는 “AI는 ‘인간’이 아닌, 어디까지나 ‘컴퓨터’답게 소통해야 한다”고 했다. 즉 “컴퓨터는 마음이 없고 생각할 수도 없다. 그러므로 컴퓨터답게 작동하고 말하도록 (개발)해야 이런 비극을 막을 수 있다”고 강조했다.
이들 전문가들의 우려는 최근 GPT-5와 GPT-4 ‘사태’에서도 잘 드러났다. GPT-5기 새로 출시되었지만, 이미 GPT-4 기반 AI봇을 마치 친구나 가족, 심지어 연인처럼 감정이입 내지 동화된 사용자들의 거센 반발을 불렀다. 낯설고 건조하기만 한 GPT-5가 대신, ‘그간 깊은 정을 쏟은’ GPT-4를 되살려내라는 요구가 거셌다. 결국 오픈AI로선 이런 사용자들의 요구를 수용할 수 밖에 없었다.
실제로 현재 시중의 인기 있는 챗봇 대부분은 스스로를 1인칭으로 호명하며 ‘말’을 한다. 때로는 사용자의 이름을 부르며 친근하게 ‘인간’에게 말을 건넨다. 많은 챗봇들은 스스로 인간과 동등한 가상의 ‘페르소나’를 만들어내는 것이다.
이러한 행동은 LLM 본연의 기술적 특성이라고 할 수는 없다. 그 보단 개발자들이 나름대로 그런 기능을 ‘디자인’한 결과일 뿐이다.
돌이켜보면 지난 수십 년 동안 지금의 AI챗봇과 비슷한 역할을 했던 구글 검색의 경우는 절대 사람인 척한 적이 없다. 그렇게 위장하지 않고도 오랜 세월 사용자 질의에 성실히 답변해 왔다. 오늘날에도 구글의 AI 기반 ‘개요’는 여느 챗봇과는 달리, 결코 ‘1인칭 음성’을 내보이진 않는다.
“사용자들이 그렇게 순진하진 않다”는 반론도
술래이만을 비롯, ‘의인화된 AI’를 비판하는 전문가들은 “챗봇에 의식이 있다고 믿게 된 사람들은 필연적으로 그들(챗봇)에게 자아나 권리를 부여하려 할 것”이라고 우려한다. 그러면 마치 사람처럼 AI 챗봇도 고통을 느낄 지각이나 ‘천부적 권리’를 지니고 있다는 ‘환상’에 젖을 수도 있다. 앞서 술래이만은 “언젠가는 그런 사람들은 ‘(AI가) 법적으로 보호받아야 할 시급한 문제’라고 해괴한 주장을 할 때가 올 것”이라고 우려했다.
오픈AI의 CEO 샘 앨트먼은 이미 ‘AI 특권’이라는 개념을 제시한 바 있다. 즉 “챗봇과의 대화가 의사, 변호사, 성직자 등 신뢰할 수 있는 전문가와의 대화와 동일한 가치를 공유한다는 것”이다.
그러나 또 다른 맥락에서 이와는 의견을 달리하는 전문가들도 많다. 언어학자인 레이프 웨더비는 “비평가들이 우려하는 것처럼 사용자들이 그렇게 순진하진 않다”고 주장한 바 있다. 그는 지난 달 ‘뉴욕타임스’에 기고한 글에서 “인간은 언어를 갖고 단순히 지능을 시험하는 데 사용하는 것이 아니라, ‘게임’처럼 사용하는 것을 좋아한다”고 했다. 즉 “챗GPT와 같은 LLM이 과대평가되고 널리 사용되는 진짜 이유는 (의인화때문이 아니라) 재미있기 때문”이라며 “AI는 일종의 엔터테인먼트”일 뿐이라고 했다.
물론 대부분 사람들은 챗봇이 사람이 아니라는 것을 알고 있다. 그럼에도 불구하고, 많은 사용자들에겐 또 다른 ‘환상’이 더 매력있게 다가오고, 그 만큼 위험성도 크다는 지적이다.그래서 “언어 모델이 성격(인격?)을 가질 수는 없지만, 인간 사용자들을 속이는 데는 매우 효과적”이라고 설명했다.
