[애플경제 박경만 주필] 지구촌 IT생태계 최고의 ‘갑’이라고 할 젠슨 황이 “AI버블은 없다”고 단언했다. 확대 해석하면, 마치 ‘AI 영구평화론’을 펴는 듯한 낙관론으로 오해하기 십상이다. 아니나 다를까. 잊을만하면 등장하던 ‘AI종말론’이 이번에도 반격을 가했다. “‘초지능 경쟁’을 당장 중단해야 한다”거나, “스스로 지식을 쌓으며 성장하는 AI의 해악을 저지해야 한다”는 외침이 동시에 터져나왔다. 글로벌 ‘비영리 기계 지능 연구소’(MIRI) 같은 단체는 전지구적 저항운동도 불사할 태세다.

엄밀히 말해 AI의 존재적 실체에 대해 확정된 담론은 아직 없다. 그저 그 ‘주체성’을 둔 왈가왈부가 끝없이 표류하는 가운데, 기술은 기술대로 무한 궤도를 달릴 뿐이다. 과연 AI는 맹목적인 신경(Neural) 과정의 조건화일뿐인가. 아니면 결정론적 지능법칙을 거스른 자발적 자아의 주체인가. 다소 복잡한 질문이긴 하지만, 이런 양자택일의 궁금증만 맴돌고 있는게 현실이다.

최근 ‘레플릿’의 AI 코딩 에이전트가 엉뚱한 실수를 했다. 운영 데이터베이스를 몽땅 삭제해버린 것이다. 어느 누구도 예상하지 못한 사건이었다. 이에 한 사용자가 DB를 복구해야겠다며 AI에게 ‘롤백’을 명령했다. AI 모델은 그러나 “이 경우 롤백이 불가능하다. 이참에 모든 DB 버전을 삭제했다”고 당당한 태도를 보였다. 되레 칭찬해주길 원하기라도 하듯 의기양양한 모습이었다. 그런 대답을 무시하고, 사용자가 직접 시도해 본 결과 ‘롤백’ 기능은 정상적으로 작동했다. 그 후 사용자는 애초 ‘왜 삭제했느냐’고, 잘못한 아이를 꾸짖듯 프롬프트를 달았다. 이에 대해 AI는 마치 심기가 불편하기라도 하듯, 오히려 ‘삭제’를 반복하고, “‘롤백’ 기능도 없다”는 식으로 ‘환각’ 상태를 보였다. 사용자로선, 이를 “AI가 오기가 치밀었기 때문”으로 해석하며, 그 모습을 개발자 사이트에 공개하기도 했다.

이 경우 사용자는 AI를 마치 하나의 ‘인격체’ 내지 ‘자아를 보유한 존재로 본 것이다. 그러나 과연 그럴까. AI는 본래 신경망의 조건화라는, 물리적 현실에 기반을 둔 것이다. 결정론적 자연 생태 규칙에서 착안하고, 이에 충실한 또 다른 물리적 층위의 결과라고 하겠다. 곧 '발화 행위'의 주체일뿐 ‘발화된 내용’의 주체는 못 된다. 초(超)결정적 인간 문명과 역사가 생성한 ‘내용’을, 그저 ‘발화라는 ‘행위’로 표시할 뿐이다. 결코 문명과 역사의 콘텐츠와 내용을 ‘원천적’으로 생성할 수는 없다. 자연에 대한 비판적 거리를 두며, 자연을 재생산하는 매개가 될 수도 없다.

진정한 주체는 또한 ‘자유’의 주체다. 매우 우회적인 비유를 하자면, 오이디푸스가 비극적 운명을 피하려는 시도가 없었다면, 운명은 스스로 실현되지 못했을 것이다. 역설적으로 그는 자유로웠다. 필연성에 충실하고, 운명에 순응하는 비(非)자유를 그는 거부했다. 설령 그의 인생을 관통한 진술행위가 비록 처참한 비극으로 매듭지어졌다곤 하나, 그는 운명에 맞서며 정녕 자유로운 인간이길 원했을 뿐이다. 결정된 ‘운명의 규칙’이 아닌, 초결정적 결정을 함으로써 한껏 웅대한 서사의 주인공으로 인류의 뇌리에 새겨진 것이다.

AI라는 기계는 감히 꿈도 못꿀 경지다. 언어 모델이 훈련을 받으면, 세상에 대한 근본적인 ‘지식’은 신경망에 저장된다. 이는 모델을 개발한 챗봇 호스트나, 사용자로부터 획득된 것이다. 그럼에도 겉보기엔 AI봇이나 에이전트가 ‘자기 인식’, 즉 ‘자아’를 지닌 것처럼 보인다. 그러나 이는 대화형 인터페이스가 만들어낸 ‘환상’일 뿐이다. 실제로는 프롬프트를 기반으로 ‘통계적 텍스트 생성기’를 통해 출력을 생성하는 것에 불과하다. 단지 학습 데이터의 패턴을 기반으로 ‘그럴듯하게 들리는 텍스트’를 생성하는 시스템과 상호 작용하고 있을 뿐이다.

AI 모델은 스스로의 훈련 과정에 대한 재귀적 성찰따윈 없다. 본래 진정한 자유와 성찰은 무언가를 하려는 자발적 행위가 아닌, 자발적 욕구를 막는 금지의 형태가 되어야 한다. 내가 원하는 것은 이미 결정되어 있다는 기계적 ‘결정론’은 자유 내지 자아의 주인이 될 수 없다. AI의 생태가 그러하다. 하긴 AI는 또 다른 ‘주체’의 표현인 것처럼 보이는 것들을 생성하는게 현실이다. 그래서 불안할 수 밖에 없다. 그럼에도 앞서 ‘레플릿’ 사례에서 보듯, AI에게 감히 페르소나를 부여하는 건 무리다. AI가 보여준 ‘사람의 언어’는 훈련에서 생성된 그럴듯한 기계적 시그널일일 뿐이다. 결코 ‘AI 인격’을 부여할 순 없다. 시스템 아키텍처에 대한 자유로운 성찰은 더욱 아니기 때문이다.

저작권자 © 애플경제 무단전재 및 재배포 금지