실리콘밸리 두 '셀럽', AI안전 ‘철학적’ 논쟁
이더리움 창시자 비탈릭 부테린, “분산·방어적 가속으로 ‘AI안전’” 오픈AI 샘 앨트먼, “조속한 ‘AGI 이상’ 추구, 진정한 초지능 구현” “속도 위주 ‘효과적인 가속’ vs 안전한 ‘분산·방어적 가속’” 논쟁
[애플경제 김홍기 기자] 실리콘 밸리 내지 첨단 IT문명의 대가라고 할 샘 앨트먼과 비탈릭 부테린이 AI의 미래 비전을 놓고 간접적이지만, 사실상의 설전을 벌였다. 이더리움 공동 창시자이기도 한 부테린은 AI에 대한 견고한 안전 보장의 필요성을 강조하며, 지나치게 빠른 속도로 ‘불완전’한 AI 개발에 박차를 가하는 개발자들을 비판했다. 사실상 오픈AI와 샘 앨트먼 같은 AI 속도론자들에 대한 경고의 메시지이기도 하다. 이에 몇 시간 후 앨트먼은 “(오픈AI는) 올해 안으로 AGI를 구축할 준비가 되었다”고 다시금 혁신과 ‘속도전’을 강조함으로써 두 사람이 정면으로 맞붙는 모양새가 되었다.
이 두 사람은 AI와 블록체인 등 실리콘밸리의 기술 세계를 대표하는 아이콘과도 같은 존재들이다. 그런 두 사람이 인공지능 개발에 대한 상반된 비전을 제시하면서 혁신과 안전 간의 논쟁이 새삼 가열되고 있음을 상징적으로 보여주고 있다.
샘 앨트먼, 몇 시간 전 부테린 발언에 반박
지난 5일 샘 앨트먼은 오픈AI의 현재와 미래에 대한 비전을 블로그에 올리면서 “그 간 오픈AI가 (범용의) 일반 인공 지능(AGI)을 향해 나아가면서 주간 활성 사용자 수를 3억 명 이상으로 3배 늘렸다”고 밝혔다. 일종의 과시이자 자랑인 셈이다.
그러면서 “우리는 이제 막연히 알려졌던 AGI를 구축하는 방법을 구체적으로 자세히 알고 있다고 확신한다.”면서 “2025년에는 AI 에이전트가 사람이 작업이나 업무에 본격적으로 접목해 기업이 생산성을 획기적으로 바꿀 수 있을 것”이라고 주장했다.
앨트먼은 “그 최전선에서 오픈AI가 앞장서며 AI 에이전트와 ‘AGI’의 이상을 향해 나아가고 있다”면서 “본사는 ‘진정한 의미의 초지능’을 개발하는 작업을 본격화하고 있다”고 전했다. 그 동안 AGI 또는 초지능은 무수한 논쟁과 계획은 있었지만, 이처럼 구체적인 기술과 스케들을 제시한 경우는 처음이다. 앨트먼은 이처럼 구체적인 스케줄을 제시하며, AGI 개발의 속도를 한층 가속화할 것임을 공언한 것이다.
앨트먼의 이같은 언급은 그러나 그 보다 몇 시간 전 공표된 이더리움 공동 창시자 비탈릭 부테린의 ‘AI 안전 지상주의’에 대한 반발의 성격이 강하다. 즉 ‘안전’보다는 ‘속도’와 혁신을 강조한 것이다.
디크립트 등에 따르면 비탈릭 부테린은 AI의 불안전성 등으로 인한 부작용이나 경고 신호가 감지되면, 산업 차원에서 AI 작업을 일시적으로 제한할 수 있는 ‘소프트 일시 중지’(soft pause capability) 기능이 작동되어야 한다고 주장했다. 또 이를 포함한 고급 AI 시스템을 위한 글로벌 ‘장애 안전 메커니즘’을 만드는 데 블록체인 기술을 사용할 것을 제안했다.
부테린 “AI 안전을 위한 암호화 기반 보안 기술” 강조
특히 부테린은 이 대목에서 자못 철학적인 ‘효과적인 가속’(e/acc) 개념보다는 ‘분산과 방어적 가속’(d/acc)을 강조했다. 간단히 말해 d/acc는 e/acc를 변형한 것이다. 세계적인 벤처캐피탈인 안드레스 호로비츠의 마크 안드레센 등 실리콘 밸리의 유명 인사들이 지지하는 기술철학이기도 하다.
부테린의 d/acc는 기술적 진보를 지지하면서도, 안전과 인간의 주도적 창의력과 그에 따른 창조적 행위를 강화하는 개발을 우선시한다. 이는 ‘성장’을 위한 개발만이 최고라는 개발 지상주의를 좇는 효과적인 가속주의(e/acc)를 경계한다. 대신에 d/acc는 먼저 안전과 인간 중심의 방어 능력을 구축하는 데 중점을 두는 것이다.
부테린에 따르면 d/acc는 특히 암호화를 중시한다. 암호화의 기본 가치, 즉 분권화, 검열 저항, 개방형 글로벌 경제 및 사회를 다른 기술 영역으로 확장한 것이란 얘기다. 이에 부테린은 지난 1년 동안 d/acc가 어떻게 발전했는지를 돌이키며, 특ㅎ; AGI와 초지능 시스템에 대한 보다 신중한 접근 방식에 ‘제로 지식 증명’과 같은 기존 암호 메커니즘을 어떻게 적용할지를 고민했다.
그에 따르면 우선 AI 컴퓨터는 안전성을 위해 국제 그룹으로부터 매주 승인을 받아야 한다는 주장이다. 그 과정에서 증명은 모든 디바이스마다 일일이 주어져야 한다. 필요하면 블록체인에 의한 ‘제로 지식 증명’을 접목할 수도 있다. 즉, 각기 독립적인 증명에 의해 다른 모든 장치를 일일이 승인해야하며, 그렇지 않고 하나의 디바이스만 따로 계속 실행되도록 승인할 수 있는 실질적인 방법은 없다는 주장이다. AI안전성을 위한 필연적 방안이란 얘기다.
그는 “이런 시스템은 승인된 모든 컴퓨터가 실행되거나, 반대로 아무 것도 실행되지 않는 마스터 스위치처럼 작동한다. 어떤 경우든 양자 택일은 불가능하다”고 했다. 그래서 “이처럼 완벽하게 안전한 AI 시스템이 갖춰지기 전까지는 ‘소프트 일시 정지 기능’만 있어도 사용자 내지 개발자들에게 큰 피해가 없을 것”이라고 확신하며, 이를 “재앙적 상황에 대비한 일종의 보험”이라고 설명했다. 다시 말해 블록체인 노드에 의한 분산증명과 코인 시스템에 의해 AI의 안전성을 보장할 수 있다는 얘기다.
블록체인 기반 ‘제로 지식증명’, ‘소프트 일시 정지 기능’ 제안
이런 주장에 대해 앨트먼은 개발과 ‘속도’의 중요성을 다시 강조하며 맞받은 셈이다. 그 배경엔 오픈AI가 챗GPT 출시 이후 인공지능 산업을 견인해왔다는 자신감이 깔려있다. 2023년 챗GPT가 등장한지 불과 2년 만에 주당 사용자 수가 1억 명에서 3억 명으로 증가했다. AI 도입이 순식간에 지구촌 범용의 기술로 확산된 것이다.
이같은 두 사람의 상반된 주장이 거의 같은 시간에 공개되면서, 새삼 AI와 IT산업 차원의 논쟁이 새삼 점화될 분위기다. 일단은 부테린의 주장이 한층 클로즈업되고 있다. 그의 주장에 동의하는 사람들은 “(AI안전을 위한) 글로벌 제어 시스템을 구현하려면 주요 AI 개발자, 정부, 암호화 기술 부문의 융합과 협력이 필요하다”는 목소리가 높다.
이에 부테린은 “(AI개발 경쟁이 치열했던 ‘전시 모드’의 1년은 그저 평온한 상황의 100년만큼이나 (AI안전을 각성할 만한 계기로서) 가치가 있을 수 있다.”면서 AI안전을 위해 “사람들이 협력하고 조직하는 힘든 과정을 거치는 것이, (샘 앨트먼 같은 뛰어난) 한 당사자가 다른 모든 사람을 지배하려는 것보다 낫다.”고 뼈있는 말을 남겼다.