오픈AI, 인간 수준 ‘초지능AI’ 한창 개발 중

코드명 ‘스트로베리’ 프로젝트 진행, ‘인간 추론’ 수준이 목표 로이터통신, “극비 정보 입수, 자가학습으로 똑똑해지는 ASI” 단독보도 ‘상당한 진척’ 추측 속, 일부 전문가 “인간에게 이는 심각한 일” 우려

2024-07-13     전윤미 기자
(사진=게티 이미지)

[애플경제 전윤미 기자] 챗GPT 이후 수많은 경쟁자들의 추격과 도전을 받아온 오픈AI가 인간 수준의 판단과 추론 능력을 갖춘 ‘초지능AI’를 본격적으로 개발하고 있다는 소식이다. ‘스토로베리’(Strawberry)라는 코드 네임의 프로젝트를 통해 상당히 구체적 단계에까지 개발이 진척되고 있는 것으로 알려졌다. 이를 통해 다른 숱한 경쟁업체들을 따돌리고, 다시 독보적인 위상을 차지한다는 목표다.

13일 로이터통신은 정통한 소식통과 자체적으로 입수한 오픈AI의 내부문서를 근거로 ‘단독’(Exclusive) 컷을 달고 이같은 소식을 헤드라인으로 보도, 눈길을 끈다. 이에 따르면 그 세부 내용은 아직 알 수 없지만, 개발 중인 신형 모델은 여지껏 없었던 초유의 고급 추론 능력을 발휘할 것이란 얘기다.

로이터 통신은 이미 지난 5월 이를 포착, 자세한 취재를 거쳐 이날 보도하기에 이르렀다. 아직은 ‘스트로베리’ 프로젝트가 얼마나 성과를 거두고 있는지는 확인되지 않았다. 이는 오픈AI 사내에서도 철저한 비밀에 부쳐진 상태다. 그러나 이날 로이터통신이 일부 확인된 기능을 보도한 바에 따르면 그 성능은 놀라울 정도다.

오픈AI 내부 일급 기밀 ‘스트로베리 프로젝트’

‘스트로베리’의 개발 모델은 단순히 쿼리(질문, 검색)에 대한 답변을 생성할 뿐만 아니라, 모델 스스로 알아서 인터넷을 적극 탐색하기도 한다. 이를 통해 오픈AI가 내부적으로 ‘심층탐색’(deep research)으로 이름붙인 추론과 판단기능을 발휘하는 것으로 알려졌다. 이는 그간의 어떠한 생성AI나 LLM 모델보다 뛰어나고, 인간의 지능에 도전하는 수준이란 해석이다.

오픈AI 측은 로이터통신의 끈질긴 질문에 대해 그저 “AI 모델이 인간처럼 세상을 보고 이해하기를 원하는 추세”라며 “업계가 모두 관행적으로 새로운 AI 기능에 대한 지속적인 연구를 하고 있으며, 시간이 지남에 따라 추론 능력이 향상될 것이라는 공통된 믿음을 갖고 있다.”고 그야말로 두루뭉술한 대답을 내놓았다. 그러나 ‘스트로베리’ 프로젝트는 이미 이전부터 ‘Q*’란 별칭으로 작년에 로이터통신이 한 차례 보도하데 이어, 이번에는 연구가 완성단계에 접어든 것으로 추측되는 시점에 다시 이를 다룬 것이다.

로이터통신은 특히 “현재의 여느 상용 모델로는 접근할 수 없는 까다로운 과학이나 수학 문제도 풀면서 정답을 내놓을 수 있는 수준”이라고 설명했다. 앞서 블룸버그도 지난 9일 “오픈AI 내부적으로 인간과 유사한 수준의 추론 기술이 있다는 해당 프로젝트의 ‘데모’(시연)를 보여준 바 있다”고 밝힌 바 있다. 오픈AI 측은 이에 “내부 회의를 연 것은 맞지만, 그 내용은 공개할 수 없다”는 입장이다.

“‘AI기술의 특이점’에 도전” 평가도

다만 분명한 것은 AI 모델의 추론 능력을 극적으로 향상시키는 것이 목적이란 점이다. 소식통에 의하면 ‘스트로베리’는 거대한 데이터 세트에 대해 사전 학습을 한 후 이에 기반을 둔 고도의 특수한 추론 방법을 포함하고 있다고 한다. 실제로 전문가들은 “AI가 인간 또는 초인간 수준의 지능을 달성하기 위해선 ‘추론’능력이 관건”임을 강조한다.

현행 LLM은 밀도 높은 텍스트를 요약하고, 인간보다 훨씬 빠르게 멋있는 시나 문서를 작성해낼 수 있다. 그러나 논리적 오류를 인식하고, 게임에서 요구되는 직관적 판단 능력 등에선 인간에 못미친다는 평가다. 이런 경우 흔히 가짜 정보를 확신하는 ‘환각’ 현상을 일으키기도 한다. 특히 AI의 맥락을 파악한 ‘추론’을 위해선 AI가 미리 계획을 세우고, 물리적 세계가 어떻게 기능하는지를 반영하며, 어려운 다단계 문제를 안정적으로 처리할 수 있는 모델 형성이 필요하다는게 전문가들의 공통된 견해다.

오픈AI 로고.(사진=로이터통신)

이처럼 AI 모델의 추론을 획기적으로 개선하는 것은 AI 기술의 ‘특이점’이라고 할 만큼 최종 완성의 경지이자, 목표이기도 하다. 오픈AI의 샘 앨트먼 역시 “가장 중요한 발전 영역은 ‘추론’ 능력에 관한 것”임을 강조하기도 했다. 이는 모든 AI업계와 전문가들의 공통된 목표이자 숙원이다. 그러나 LLM을 통해 특히 인간 수준의 추론을 구현할 수 있는가에 대해 일부 전문가들은 다소 회의적이다. 로이터통신이 인용한 메타의 연구원 얀 르쿤은 “LLM은 인간과 같은 추론을 할 수 없다”고 잘라 말하기도 했다.

그러나 오픈AI의 ‘스토로베리’는 “바로 이런 한계를 뛰어넘기 위한 프로젝트”라고 로이터는 익명의 소식통을 인용해 밝혔다. 로이터는 “이미 최근 몇 달 동안 오픈AI는 ‘훨씬 더 진화된 추론 능력을 갖춘 기술을 출시할 예정’이라는 사실을 내부 개발자나, 기타 외부 당사자들에게 비공개적으로 알려왔다”고 전했다. 사실상 ‘초지능 AI’의 출현을 기정사실화했다는 얘기다.

모델 스스로 ‘사후 훈련’ 통해 지식 축적

로이터가 입수한 정보에 따르면 ‘스트로베리’엔 생성AI 모델의 사전학습말고도 ‘사후 훈련’으로 알려진 특수한 기술이 포함되어 있다. 대량의 일반화된 데이터를 학습한데 그치지 않고, 지속적으로 사후 훈련을 스스로 반복하며, 성능을 연마하고, 기본 모델을 발전적으로 조정하는 것이다. 기존의 미세 조정 방식도 한층 고도로 발전시킨 것은 물론이다.

‘스트로베리’는 또 지난 2022년 스탠포드대에서 개발된 ‘Self-Taught Reasoner’(STaR, 자가학습추론) 방식과 유사한 점이 많다는 해석이다. 즉, AI 모델이 반복적인 생성을 통해 스스로를 더 높은 지능 수준으로 다듬고 훈련시킬 수 있다. 스탠포드대학의 노아 굿맨 교수는 “AI 스스로 자체 훈련 데이터를 사용해 인간 수준의 지능을 초월하는 언어 모델을 얻어낼 수 있을 것”이라고 로이터에 말했다. 굿맨 교수는 그러면 “그건 흥미롭기도 하고 두렵기도 하다”면서 “상황이 계속 그런 방향으로 흘러간다면 우리 인간들은 이를 심각하게 생각해 볼 문제가 있다”고 우려했다.

‘스트로베리’가 목표로 하는 기능 중엔 도 LHT(장거리 작업)도 포함된 것으로 전해졌다. 이는 AI모델이 장기간에 걸쳐 미리 계획하고, 일련의 작업을 수행해야 하는 복잡한 작업을 의미한다. 오픈AI는 이를 위해 내부적으로 ‘심층 연구’ 데이터 세트라고 부르는 모델을 생성, 학습과 테스트를 반복하고 있는 것으로 전해졌다. 아직은 “해당 데이터세트에 무엇이 있는지, ‘장기간의 미리 계획’한 기간이 얼마 동안인지에 관해선 알 수 없다”는게 로이터통신의 설명이다. 가능성이 높은 또 하나의 기능은 ‘CUA’, 즉 ‘컴퓨터 사용 에이전트’다. CUA를 활용, 웹을 자율적으로 검색하고, 그 결과에 따라 모델이 의사결정을 할 수 있다는 것이다.