(2-②) ‘AGI’의 서사-AGI 실현, '넘을 수 없는 산' 많아
‘배운 것’ 이상의 상상과 직관, 융합적 창발 능력 ‘부족’ 인간 ‘오감’ 내지 ‘육감’ 같은 세상과의 총체적 상호작용 능력 부재 앨트먼 “인간 수준 동료” vs ‘AI 대모’ 페이페이 리 “무슨 말이냐” 냉소
[애플경제 김홍기 기자] 일반 인공 지능(AGI)은 AI기술의 최종판이라고 할 수 있다. 그러나 이는 현재의 기술론 극복하기 힘든 장애물을 뛰어넘어야 한다. ‘포브스’, ‘테크크런치’ 등 기술매체와 관련 애널리스트들의 전망을 종합하면 대략 5가지 정도로 요약할 수 있다.
‘상식과 직관’ 능력의 부족
우선 인간지능에 필적할 만한 지능을 갖추기 위해선 ‘상식과 직관’ 능력이 필수다. 현재의 AI는 존재하는 세계를 완전히 탐험하고 활용할 능력이 부족하다. 인간은 그러나 진화를 통해 가능한 모든 도구와 데이터를 사용, 문제를 해결하는 데 능숙하다. 이에 비해 기계는 현실 세계에서 가능한 한 충실하게 추출한 디지털 데이터를 통해 세상에 대해 학습할 뿐이다.
특히 인간은 스스로가 알 수 없는 미래 세상의 ‘지도’를 만든다. 이는 우리의 모든 감각, 우리가 배우는 모든 것, 타고난 믿음과 편견, 그리고 우리가 경험하는 모든 것을 상상하고, 융합한 것이다.
그러나 네트워크를 통해 이동하는 디지털 데이터를 분석하거나, 센서로 정보를 수집하는 기계는 불가능한 경지다. 컴퓨터 비전을 통해 AI는 날아다니는 새의 비디오를 보고 새의 크기, 모양, 종, 행동에 대해 많은 것을 배울 수 있다. 그러나 새의 행동을 통해 스스로 날아다니는 방법을 알아내고, 인간처럼 이를 비행기를 만드는 데 적용할 수 있다는 사실을 스스로 깨닫고 발명하는데 이르진 못한다. 이처럼 ‘상식과 직관’은 여전히 인간에게만 국한된 지능이다. 모호함, 혼돈, 기회를 탐색하는 인간만의 능력을 가능하게 하는 것이다. 이런 수준에 도달해야한 AGI가 탄생될 수 있는데, 그게 가능할지는 알 수 없는 노릇이다.
‘하나를 배워 열을 아는 능력’ 가능할까
인간의 타고난 능력 중 하나는 한 작업에서 배운 지식을 다른 작업에 적용하는 것이다. 즉 ‘한 가지를 배워 열 가지를 안다’는 것이다. 이에 반해 AI는 특정한 좁은 범위의 작업을 위해 만들어졌다. 의료용 챗봇은 스캔을 분석하고, 환자와 상담하고, 증상을 평가하고, 치료를 처방할 수 있다. 그러나 고장난 냉장고를 진단하라고 하면 엄두가 나지 않는다. 두 작업 모두 패턴 인식과 논리적 사고에 의존하는 것이다. 그러나 AI는 명시적으로 해결하도록 훈련받은 문제를 넘는 방식으로 데이터를 처리할 수는 없다.
반면 인간은 완전히 다른 도메인에서 문제 해결, 추론 및 창의적 사고 기술을 적용할 수 있다. 예를 들어, 인간 의사는 정식 교육 없이도 진단 추론을 사용해 결함이 있는 냉장고의 문제를 해결할 수 있다.
AGI가 존재하려면 AI가 이러한 능력을 개발해야 한다. 즉, 완전한 재교육 없이도 여러 분야에 걸쳐 지식을 적용할 수 있어야 한다. AI가 완전히 새로운 데이터 세트에 대한 재교육 없이도 이러한 연결을 만들 수 있을 때, 비로소 진정한 일반 지능에 한 걸음 더 가까워질 것이다.
인간과 같은 오감(혹은 육감)을 갖춰야
인간은 감각을 통해 세상과 상호 작용합니다. 기계는 센서를 사용한다. 인간은 기계와 달리 수백만 년에 걸친 진화 끝에 시각, 청각, 촉각, 후각, 미각 능력을 연마했다.
반면 기계는 인간이 제공하는 도구에 의존한다. 이는 문제를 해결하는 데 필요한 데이터를 수집하는 가장 좋은 방법일 수도 있지만, 반대일 수도 있다. API를 통한 디지털 방식이든, 로봇을 통한 물리적 방식이든, 오로지 인간이 주입한 방식으로만 외부 시스템과 상호 작용할 수 있다.
가능한 한 정교한 방식으로 물리적 세계와 상호 작용하려면 이런 한계를 넘어서야 한다. 예를 들어 수동 노동을 지원하거나, 특별히 액세스 권한이 부여되지 않은 컴퓨터 시스템에 액세스하는 경우다. 하긴 지금의 에이전트 AI는 그나마 컴퓨터 비전을 통해 웹사이트를 이해하고 외부 도구에 액세스한다. 그러나 AGI가 현실이 되기 위해선, 물리적, 혹은 디지털 시스템을 독립적으로 탐색하고 이해하고 인터페이스할 수 있어야 한다.
AGI 구축 비용과 수익성 불투명?
지금 수준의 AI 모델도 훈련, 배포하기 위한 데이터와 처리 용량은 엄청나다. 앞으로 이는 더욱 늘어날 수 밖에 없다. 특히 그로 인한 ‘에너지 발자국’에 대한 우려가 크며, 이를 지원하기 위해 날로 막대한 인프라 프로젝트가 필요하다. 이에 “필요한 범위 내에서 투자할 의향이 있는지 여부가 중요하다”는 지적이다.
이미 많은 연구에 의하면 한층 스마트한 AI를 구축하기 위해 더 많은 처리 능력과 데이터를 단순 투입하는 것은 수익을 오히려 감소시킨다는 보고도 있다. 예를 들어 챗GPT의 최신 업데이트 제품인 옴니(o) 시리즈 모델과, 최근 세인을 놀라게 한 중국의 딥시크(DeepSeek)는 추론과 논리 기능을 강화했다. 다시 말해 이는 AI의 훈련 단계가 아닌, 사용자의 손에 있는 추론 단계에서 더 많은 전력이 필요하다는 얘기다. 사용자로선 큰 부담이 아닐 수 없다. 에너지와 처리 용량, 데이터 등 모든 면에서 지금의 AI와 비교가 안되는 AGI의 가장 큰 걸림돌일 수 밖에 없다.
가장 큰 장애물, AI에 대한 인간의 ‘불신’
앞서 나열한 4가지 장애요인을 모두 합친 것보다 큰 장애물은 역시 ‘인간’이다. 아무리 기술적 장애물이 해결되었다고 해도, 인간이 이를 받아들일 준비가 안되면 소용이 없다. 사회 혹은 ‘만물의 영장’을 자부하는 인간이 그에 필적할 만한 존재로서 기계로 대체되는 것을 용납할 것인가 하는 문제다.
다시 말해 기계에 대해 인간은 궁극적인 신뢰를 할 수 없다는게 문제다. 이미 생성AI 이후 일자리에서 창의성에 이르기까지 인간에게 도전하는 모든 요소에 대한 두려움과 거부감은 이를 잘 설명해주고 있다. 만약 AGI처럼 인간과 똑같이 스스로 생각하고, 거의 모든 면에서 인간을 이길 수 있는 기계가 등장하면 어떨까. 이를 인간이 용납하긴 어려울 것이다.
지금의 많은 AI 시스템조차, 개발자마저 그 내부에서 무슨 일이 어떻게 왜 일어나는지 거의 알지 못하는 경우가 많다. 그래서 최소한 “인간사회가 AI를 충분히 신뢰하고, 인간을 대신해 결정을 내리게 하려면 AGI 시스템은 지금의 AI 시스템 이상으로 수준높은 설명이 가능하고, 책임을 져야 한다”는 지적이다.
설사 이런 장애물들이 극복된다고 해도 여전히 AGI 개념의 모호함, 그리고 그 실현 가능성에 대한 회의적 시각은 팽배해있다.
흔히 ‘AI의 대모’로 불리기도 하는 ‘페이페이 리’는 “나도 AGI가 무엇인지 전혀 모른다”고 했을 정도다. 최근의 한 ‘AI 리더십 서밋’에서 그는 “나는 학문적 AI를 연구, 개발하면서 더 엄격하고 증거 기반의 방법으로 연구를 했기 때문에 (AGI가 뜻하는) 이 모든 단어가 무슨 뜻인지 잘 모르겠다”면서 이같이 밝혔다.
앞서 오픈AI의 샘 앨트먼이 “AGI는 ‘동료’로 고용할 수 있는 중간 수준의 인간과 동등하다”고 정의를 내린 것과는 전혀 다른 시니컬한 맥락이다. 이처럼 최고의 전문가들 사이에서도 AGI에 대한 합의된 프로토콜이 존재하지 않는게 현실이다.