‘뉴욕타임스’, AI개발․전문가들과 초대형 ‘생성AI’ 위험성 경고 앞장
“최고 권위의 언론매체와 유력한 AI전문가 집단이 한 목소리” 해석
[애플경제 전윤미 기자]초대형 생성AI가 결국 속도 조절에 들어갈 것인가. 최근의 분위기로 봐선 19C 산업혁명 초기 ‘러다이트’(기계파괴운동) 운동과는 또 다른 문명론적 전환점이 될 수도 있다는 전망까지 나오고 있다. 특히 그 중심엔 세계적 권위의 ‘뉴욕타임스’와, 역시 세계 최고 권위의 컴퓨터 과학자들이 있어 주목된다.
‘뉴욕타임스’ 연일 AI전문가들의 ‘경고’ 대서특필
‘뉴욕타임스’는 지난 주부터 특히 수 십년 간 초대형 생성AI에 이르기까지 인공지능 기술의 산파 역할을 해온 내로라 하는 AI과학자와 개발자들을 총동원하다시피 하며, 고위험성 AI의 폐해를 경고하고 있다.
작심한 듯 거의 매일 헤드라인 또는 비즈니스 섹션을 통해 초대형AI와 L.L.M(대형 자연언어 모델)에 의한 학습 모델의 치명적 위험성을 집중적으로 다루고 있다. 특히 초대형AI를 만든 장본인들이라고 할 과학자들의 경고를 자세히 다루며, ‘초대형 생성AI’의 폭주에 연일 제동을 걸고 있다.
2일(한국시각)에는 구글은 물론, 현대 AI기술의 대부로 일컬어지는 구글의 AI 총책임자 제프리 힌튼 박사가 역시 ‘뉴욕타임스’를 통해 충격적인 고백을 하면서 국제적 충격파가 일고 있다.
그는 지난 50년 간 오로지 AI 기술만을 연구하며, 오늘의 초거대 AI기술이 있게 한 장본인이다.
그런 그가 “많은 기업들이 챗GPT와 같은 인기 있는 챗봇에 동력을 공급하는 기술인 생성 AI 지능을 기반으로 한 공격적인 캠페인으로 위험을 향해 질주하고 있다”고 공식적인 견해를 밝혔다. 이날 그는 10년 이상 몸담았던 구글을 떠나면서 그간 가슴에 담아두었던 심경을 처음으로 털어놓았다. 심지어 그는 “(AI개발에만 몰두했던) 내 인생의 여정을 후회한다”고까지 했다.
구글의 제프리 힌튼, 사표 직후 ‘AI 위험성’ 토로
‘뉴욕타임스’를 통해 합창이라도 하듯, 그 위험성을 경고하거나 강력 비판하는데 앞장선 이들 전문가들은 아이러니컬하게도 초대형AI를 포함한 오늘의 인공지능 기술이 있게 한 최고 권위자들이다.
몬트리올 대학의 AI 연구 권위자인 요슈아 벤지오 박사나, 앞서 공개적으로 위험성을 밝힌 구글의 제프리 힌튼 박사가 대표적이다. 이들은 지난 40년 동안 GPT-4와 같은 시스템을 구동하는 기술을 개발한 인물들이다. 또 각자 신경망에 대한 연구로 ‘컴퓨팅의 노벨상’으로 ‘튜링 상’을 받을 정도로 권위를 인정받고 있다.
또 아리조나 주립 대학의 수바라오 캄밤파티 컴퓨터 과학 교수, 시애틀의 ‘앨런 AI 연구소’를 설립하고 이 기구를 이끌어온 오렌 에치오니 교수, 캘리포니아 대학의 이론 우주론자이자 물리학자이자 미래 생명 연구소의 공동 설립자인 앤서니 아기레 등도 대표적인 인물이다.
심지어는 마이크로소프트의 최고 AI과학 책임자인 에릭 호비츠도 포함되어 있다. 그는 빙(Bing) 검색 엔진을 포함한 광범위한 제품에 오픈AI의 기술을 적용한 인물로서, 사실상 지금과 같은 ‘챗GPT 충격’을 전세계에 던진 장본인인 셈이다. 이 밖에도 40년 역사를 지닌 ‘미국 인공지능 발전 협회’의 전․현직 대표자 19명도 지난 번 오픈AI에 인공지능의 위험성을 경고하는 서한에 적극 참여했다.
‘초대형AI’ 개발, 충격 던진 당사자들이 “AI는 위험”
현재의 초대형AI의 위험성에 관한 논란을 촉발한 당사자격인 개발자들과 과학자들이 이에 제동을 걸고 나오는 역설적인 상황이 벌어지고 있는 것이다.
이들은 일단 ‘L.L.M.s’가 원치 않았거나 예상치 못한 행동을 배울 수 있다고 경고했다. 또 거짓, 편향, 그리고 왜곡된 정보를 생성할 수 있으며, 심지어는 “GPT-4와 같은 시스템은 사실(Fact)을 잘못 알고 정보를 구성하게 하는데, 이 현상을 ‘환각’”(hallucination)이라고 우려했다.
특히 벤지오 박사는 “AI시스템을 더 강력하게 만들수록 새로운 위험을 초래할 것”이라며 GPT를 적극 활용하며 제품과 서비스를 개발하고 있는 기업들의 행태를 경고하기도 했다.
“우선은 가짜 내지 허위정보가 걱정”
이들 전문가들이 단기적으로 가장 걱정하는 것은 우선 가짜 내지 허위 정보의 남발이다. 즉 생성AI 시스템은 스스로 확신을 가지고 정보를 전달하기 때문에 진실과 허구를 분리하는 것이 어렵다. 그럼에도 “의학적 조언이나, 정서적 지원, 그리고 의사 결정에 사용하는 원시 정보를 획득하기 위해 이러한 시스템에 많이 의존하고 있다”는 우려다.
앞서 수바라오 캄밤파티 교수는 “주어진 어떤 과제에서도 초대형 AI시스템이 정확할 것이라는 보장은 없다”면서 “때로는 악의를 품은 사람들이 허위 정보를 퍼뜨리기 위해 이러한 시스템을 오용할 수도 있지만, 이는 인간과 같은 방식으로 대화하는 능력이 있기 때문에 놀라울 정도로 설득력이 있다는게 문제”라고 했다. 그래서 진짜와 가짜를 구별하기가 무척 어렵다는 얘기다.
“좀 길게 보면 일자리 감소도 문제”
이들 전문가들은 또 “좀 길게 보면 ‘일자리 감소’도 큰 문제”라고 했다. 이른바 ‘직업 킬러’가 될 수도 있다는 얘기다. 물론 지금의 GPT-4와 같은 기술은 인간 근로자를 보완하는 수준이다. 그러나 오픈AI는 이미 그들이 만든 생성AI기술이 “인터넷 공간에서 콘텐츠를 조정하는 직종을 포함, 상당수 노동자들을 대체할 수 있다”고 인정한다.
아직은 변호사나, 회계사 또는 의사의 업무를 대체할 수는 없다. 하지만 그들은 사무장이나 개인 비서, 번역가 정도는 충분히 대체할 수 있다. 오픈AI 스스로가 펴낸 리서치에 따르면 미국의 경우 적어도 자신이 종사하는 업무의 10% 정도가 L.L.M.s의 영향을 받는 직종이 전체의 80%는 될 것이라고 한다. 나머지 19%의 직종 종사자들은 그들의 업무 중 50%가 영향을 받을 것으로 예상하는 것으로 나타났다.
이에 대해 앨런 AI연구소의 오렌 에치오니 교수는 “단순 반복적인 직업이 사라질 것이라는 분명한 징후는 이미 나타나고 있다”고 했다.
“장기적으로 결국 AI에 대한 통제력 상실할 것”
전문가들이 가장 걱정하는 것은 “장기적으론 초대형 생성AI의 위험이 통제력을 상실할 것”이라는 점이다.
애초 오픈AI 서한에 서명한 전문가들 대부분은 인공지능이 사람의 통제 밖으로 빠져나가거나 인류를 파괴할 수 있다고 믿고 있다. 즉, 초대형 AI시스템은 분석 데이터가 워낙 방대하다보니, 예상치 못한 동작을 학습하거나, 심각한 문제를 일으킬 수 있다.
또 기업들이 흔히 L.L.M.를 다른 인터넷 서비스에 연결함에 따라, AI시스템들 스스로 컴퓨터 코드를 작성할 수 있고, 이로 인해 예상치 못한 힘을 얻을 수 있을 가능성도 크다.
또한 캘리포니아 대학의 앤서니 아기레 교수는 “"만약 (지금 우려하는 것과 같이) 그런 상황이 닥치고, 실질적인 거버넌스가 없다면 우리가 생각했던 것보다 더 강력한 AI로 인해 끔찍한 시나리오가 펼쳐질 것”이라고 했다. 그는 또 “이미 AI에 의한 실존적 위험에 대한 이야기는 가상적 상황이 아니다”면서 “지금이라도 모두가 책임감을 갖고, 적절한 규제와 입법이 절실하다”고 강조했다.
한편 ‘뉴욕타임스’는 같은 지면에서 특히 구글을 나온 제프리 힌튼 박사의 단독 인터뷰를 전면에 배치하고 있다. 해당 인터뷰에서 힌튼 박사는 “진정으로 자율적인 무기들, 즉 ‘살인 로봇’들이 현실이 되는 날이 두렵다”면서 “대부분의 사람들은 앞으로 30년이 될지, 50년 이상이 될지 모른다는 식으로 생각하고 있지만 내 생각은 다르다”고 했다.
즉 “깜짝 놀랄 정도로 매우 가까운 시일에 통제 불능의 끔찍한 AI시대가 올 수도 있다”는 게 힌튼 박사의 예언이다.
