제프리 힌튼, 요슈아 벤지오 ‘신중하게 안전한 AI 개발’ 주장
얀 르쿤, “AGI 달성 위해 ‘세계 모델’ 등 개발 가속해야”
‘AI위험과 안전’ vs ‘AI 개발 가속도’…양 진영을 상징
3인 ‘컴퓨팅 노벨상’ 비유 ‘ACM A.M. 튜링’ 수상, 힌튼은 ‘노벨물리학상’
[애플경제 전윤미 기자] 이른바 세계 3대 ‘AI 대부’라고 하면 제프리 헌튼, 요슈아 벤지오, 얀 르쿤 등 세 사람을 꼽는다. 이들은 ‘컴퓨팅 분야 노벨상’으로 인정받는 ‘ACM A.M. 튜링’ 상을 지난 2018년 공동 수상한데 이어, 제프리 헌튼은 금년 노벨물릭학상을 받기도 했다. 그러나 이들 ‘AI 대부’들 간에도 AI의 안전성과 속도를 두고 의견이 엇갈리고 있다.
단적으로 제프리 헌튼과 요슈아 벤지오 등 두 사람은 AI 속도경쟁과 위험성을 경계하며, ‘안전하고 책임있는 AI 경쟁’을 강조하고 있다. 반면에 얀 르쿤은 “아직도 AI의 지능 수준은 크게 발달한게 아니며, 좀더 기술에 박차를 가해야 한다”는 속도론에 무게를 싣고 있다.
벤지오, “지나친 속도경쟁 지양, 강력한 규제” 주장
최근에도 벤지오는 언론 인터뷰에서 “기업들은 AI부문에서 우위를 차지하기 위한 경쟁을 자제할 것”을 촉구하며 “안전보다 속도를 우선시하다간 예측 불가능하고 위험한 결과가 초래될 수 있다”고 경고했다. 특히 시사매체 ‘스카이 뉴스’와의 대담에서 그는 특히 “자율 시스템을 제어하기 어려워지기 전에 AI 규정을 시행하기 위한 글로벌 협력이 필요하다”면서 이같이 촉구했다.
‘AI 대부’ 중 한 사람인 벤지오는 애초 모든 종류의 AI 도구를 실행하는 신경망의 기초를 만든 장본인이다. 특히 제프리 힌튼과 얀 르쿤과 함께 딥 러닝을 위한 기초적 연구를 수행하기도 했다. 이로 인해 다른 두 사람과 함께 ACM A.M. 튜링상을 수상한 바 있다.
그런 그가 최근엔 AI 개발자들에게 경고를 하고 있다. 더 강력한 AI 시스템을 개발하려는 경쟁으로 인해 지나치게 속도를 내고 있다는 것이다. 만약 지금처럼 안전을 경시하고, 첨단 AI에 대한 신속한 규제가 없으면 치명적인 결과를 초래할 수 있다는 주장이다.
특히 그는 “딥시크와 같은 중국 AI 기업들의 부상은 AI개발자에게 더욱 큰 압박으로 다가오고 있다”면서 주요 테크 기업들은 개발 속도를 늦추며 위험을 신중하게 고려하는 대신, 마냥 전력 질주하며 AI 개발을 가속화하고 있는 현실을 우려했다. “이로 인해 서둘러 배포하고, 안전 조치가 부족하고, 아직 완전히 이해하지 못하는 방식으로 작동하는 시스템이 생길까 봐 걱정된다”는 것이다.
벤지오는 “그 동안 AI에 대한 감독을 강화할 필요성을 꾸준히 경고해 왔지만, 최근 사건(딥시크)으로 인해 그의 메시지가 더욱 절박하게 느껴졌다”면서 “현 상황은 의미 있는 규정과 안전 프로토콜을 구현하거나, 반대로 AI 개발이 예측할 수 없는 지경으로 치닫게 될 ‘전환점’”이라고 우려했다.
특히 벤지오는 “AI 시스템이 사용자 입력에 응답하는 것을 넘어 정보를 처리할 뿐만 아니라 자율적인 결정을 내릴 수 있는 것이야말로 위험하다”고 했다. 그에 따르면 AI는 장차 충분한 컴퓨팅 파워만 있으면 스스로 전략을 세우고, 적응하며, 독립적인 조치를 취할 수 있게 된다. 그렇게 되면 “AI는 인간이 통제권을 되찾고 싶어해도, 빠르게 제어하기 어려워질 수 있다.”고 우려했다.
그러면서 “이와 같은 시스템이 엄격한 보호 장치 없이 배포되면 그 결과는 전면적인 보안 및 경제 위기 등 다양한 부작용과 피해를 낳을 수 있다”고 했다.
다만 벤지오는 “AI 개발을 중단해야 한다고 주장하진 않는다”고 전제했다. 그는 의료 및 환경 연구와 같은 일에 책임감 있게 사용될 AI의 능력은 낙관한다고 했다. “단지 AI 기술에 대한 보다 사려 깊고 의도적인 작업으로 우선 순위를 전환해야 한다”면서 AI 개발자가 시장경쟁보다 윤리와 안전을 우선시해야 한다는 주장을 펴고 있다. 그래서 “기업들은 성능 개선에 투자하는 것만큼 안전 연구에도 투자해야 한다”고 촉구하고 있다.
힌튼, 노벨상 수상 소감서도 “안전한 AI” 강조
금년 노벨물리학상을 받은 또 다른 ‘AI의 대부’인 영국계 캐나다 컴퓨터 과학자 제프리 힌튼은 과거 10년 이상 구글에서 일했지만 “AI 개발의 위험에 대해 더 자유롭게 이야기하기 위해 그만두었다”며 작년에 이 회사를 그만뒀다.
그 역시 평소 AI가 인류에게 해를 끼칠 수 있는 가능성에 대해 우려를 표명하곤 했다. 이번 노벨상 수상을 전후해서도 그의 ‘안전한 AI’에 대한 신념은 다시금 강조되었다. 수상 소식이 전해진 당일에도 노벨 위원회와의 통화에서 힌튼은 “결국 우리 인간보다 더 지능적인 시스템이 통제권을 잡을 수 있다는 우려를 금할 수 없다”면서 “그렇기 때문에 오히려 다시 같은 일(AI 연구)을 할 것”이라고 말했다.
그는 노벨상 소감을 통해서도 “내가 걱정하는 것은 단순한 AI가 아니라, 전 세계 정보 흐름과 결합된 AI”라고 재삼 확인했다. 즉 “신경망의 간단한 알고리즘이 매우 큰 정보 시스템을 제어할 수 있지만, 그러한 네트워크가 제대로 이해되지 않을 수 있다는 생각에 불안하기 짝이 없다”고 강한 우려를 표출했다.
르쿤, “현 AI, 고양이보다 못해, 한층 박차 필요”
반면에 벤지오나 힌튼과는 달리 역시 3명의 ‘AI 대부’ 중 한 사람인 르쿤은 의견이 다르다. 그는 다른 두 사람과 함께 가진 ‘ACM A.M. 튜링상’ 시상식장에서도 AI가 인류에게 위험하다는 힌튼이나 벤지오의 반복적인 경고에 대해 공개적으로 반박했다.
그는 평소 “오늘날의 AI가 또 다른 의미에선 결코 지능적이지 않다고 확신한다”고 했다. 특히 LLM기반 AI가 인간 수준의 지능을 크게 능가하는 소위 ‘인공 일반 지능’(AGI)에 대해서도 “그런 이야기는 (현 기술발달 속도론) 시기상조일 가능성이 높다”고 지적한다.
또 지난해 오픈AI에서 퇴사한 한 연구원이 “초지능 AI를 제어하는 방법을 모색해야 한다”고 했을 때도 이를 반박한 적이 있다. 당시 그는 “우리 인간보다 훨씬 똑똑한 AI 시스템을 제어하는 방법을 긴급히 알아내기 전에, 먼저 집고양이보다 똑똑한 시스템을 설계하는데 집중해야 할 것”이라고 했다.
즉 고양이 만큼의 지능이라도 달성하기 위해 박차를 가해야 한다는 주장이다. “고양이는 물리적 세계에 대한 정신적 모델, 지속적인 기억, 어느 정도의 추론 능력, 계획 능력이 있다”는게 그의 생각이다. 그러면서 “‘집 고양이’보다 똑똑한 시스템을 설계하기 위한 힌트를 보여준 AI를 본 적이 없다”고도 했다. 나아가서 그는 “미래엔 AI 시스템이 기본적으로 인간 수준의 특성과 상식을 가지고 있어야 하며, 명실상부한 인간의 조수가 되어야 한다”면서 “다만 이렇게 유능한 AI를 만드는 데는 수십 년이 걸릴 수 있으며, 오늘날의 지배적인 기술접근 방식으로는 거기까지 갈 수 없다”고 단언했다.
르쿤은 특히 이를 위해 ‘세계모델’을 강조했다. 즉 오늘날 “AI 시스템의 문제는 규모가 아니라 설계 방식”이라며 “빅테크들이 전 세계 데이터 센터에 아무리 많은 GPU를 집어넣어도 오늘날의 AI기술 방식으론 ‘인공 일반 지능’을 얻을 수 없을 것”이라고 했다.
대신에 “근본적으로 다른 방식으로 작동하는 AI에 대한 연구”를 그 대안으로 제시했다. 그가 제시하는 프로젝트 중 실제 세계의 영상을 소화하고 학습하는 것이다. 즉 다양한 시각 정보를 통해 ‘세계 모델’을 구축, “동물의 새끼나 사람의 아기들이 하는 것과 유사한 방식으로 학습하는 모델을 만드는 것”이 대안이라고 했다. 즉, ‘세계 모델’은 르쿤의 강조하는 ‘AI 속도론’ 내지 ‘개발론’의 상징과도 같은 개념이다.
