(2-ⓛ)‘AI 공포’ - 사람 결정보다 빨리 ‘핵 버튼’ 누른다면?

군사 전문가들 우려…핵무기 시스템에 ‘생성AI’ 접목 시나리오 예상 사람의 의사결정 앞질러 ‘결단’…상대국에 대한 오해로 큰 재앙 부를 수도 상당수 재래식 자율무기에도 AI접목 가능, “AI군비경쟁 가열” 전망

2023-05-09     전윤미 기자
사진은 박영사가 펴낸 ‘핵비확산의 국제정치와 한국의 핵정책’(한용섭 지음)의 표지 사진으로 본문 기사와는 관련이 없음.

[애플경제 전윤미 기자]GPT-4 이상 가는 초지능AI가 개발되면, 사람이 결정하기도 전에 핵미사일 발사 버튼을 눌러버리는 일이 생기지나 않을까. 미래의 이런 가상적 상황을 상상할 만큼, 고도의 인공지능에 대한 공포가 국제사회에 번지고 있다.

지난 주 미 백악관이 구글, MS, 오픈AI 등의 CEO들을 불러모은 것은 이를 보여주는 상징적인 모습이다. 해리스 부통령과의 대화가 이어지던 중 바이든 대통령도 잠깐 들러 국내외 언론의 주목을 받은 이날 만남에서 미 행정부가 어떤 종류의 규제를 할지에 대한 구체적인 내용은 언급되지 않았다.

그럼에도 불구하고 일단 AI 빅테크의 CEO들은 기탄없이 의견을 주고받으며, 이들의 말 한마디 한 마디가 언론을 통해 클로즈업되고 있다.

‘스스로 생성, 생각하는 AI’의 위험성 경고 잇따라

특히 초대형 생성AI처럼 스스로 “생성하고 생각할 수 있는 AI”는 강력하고 치명적인 군사용 무기로 사용될 수 있다. 미 국방부가 이른바 ‘자율무기 개발’이란 명칭의 프로젝트를 이미 10년 전부터 추진해오고 있는 것도 대표적인 사례다. 이는 사실상 인공지능을 무기화하는 프로젝트로서, 지난 2018년에는 펜타곤 내에 별도의 ‘인공지능 합동 개발 센터’를 설립한 바 있다.

‘뉴욕타임즈’는 이같은 ‘군대에 도입한 인공지능 시스템’의 위험성을 지속적으로 경계하고 있다. 즉 “전쟁을 유발하는 결정의 속도를 높여 우발적인 공격을 완전히 새로운 위험으로 확산시키거나, 의도적으로 잘못된 공격 경고에 대한 결정을 내릴 수 있다”는 것이다.

최근 ‘뉴욕타임즈’, ‘워싱턴포스트’, ‘WSJ’, 로이터, AP통신 등 유력한 외신들은 펜타곤과 국방 관련 연구원, AI 전문가, AI윤리 관련 학계인사 등을 통해 ‘AI가 몰고올 재앙’을 지속적으로 경고하고 있다.

이들 매체가 인용한 이 분야 전문가들에 의하면 그렇잖아도 이미 상당수 무기는 이미 자동 조종으로 작동하고 있다. 미사일이나, 영공으로 진입하는 비행기를 격추시키는 패트리엇 미사일은 이미 오래전부터 ‘자동’ 모드를 갖추고 있다.

문제는 그 반응 속도다. AP통신은 지난 주 패트리엇 미사일 발사 사진과 함께 “사람이 반응할 수 있는 것보다 공격무기가 더 빨리 목표물에 다가올 경우 사람의 개입 없이 발사할 수 있게 해줘야 한다는 요구가 증가하고 있다.”는 설명을 달아 눈길을 끌었다. 즉, 단순한 자동 모드만이 아니라, 그 보다 더욱 첨단화된 AI와의 접목을 요구하는 목소리가 높다는 뜻이다. 물론 이 경우도 필요한 경우 공격을 중단할 수 있도록 인간에 의해 감독받아야 한다는 전제가 따라붙긴 한다.

자율모드의 패트리엇 미사일. 필요할 경우 사람에 의해 공격 취소 등 제어가 가능하다. (사진=AP통신)

AI 활용, 이란 핵과학자 암살, 러 “AI 핵어뢰 개발”

지난해 외신을 떠들썩하게 했던 이란 최고의 핵 과학자 모센 파흐리자데의 암살도 고도의 ‘원격 제어’에 의한 것이 확실시된다. AI의 도움을 받은 자율 기관총을 사용하여 이스라엘 모사드가 암살을 주도한 것이다.

또한 러시아는 최근 “해저 포세이돈 핵 어뢰를 제조하기 시작했지만 아직 배치하지는 않았다”고 밝혔다. 만약 러시아의 발표가 사실이라면, 포세이돈 핵 어뢰는 발사된 지 며칠 후에 핵무기를 전달하기 위해 기존의 미사일 방어망을 피해 (AI 등에 의해) 자율적으로 바다를 가로질러 이동할 수 있을 것으로 예상되기도 한다.

구글의 AI대부로 알려진 제프리 힌턴은 현직에서 물러나며 “멀지않아 AI 킬러로봇도 출현할 것”이라고 예고했다. 그는 구글과 오픈AI가 각기 초지능AI인 ‘바드’와 챗GPT로 경쟁을 벌이는 모습을 보며 “인공지능 발전이 인류에 위협이 될 수 있다고 생각하게 됐다”면서 “빅테크들이 인공지능 시스템을 개선할수록 점점 더 인간에게 위험해질 것”이라고 경고했다. 그가 말한 AI킬러 로봇은 이미 각종 로봇 전시회 등에서 흔히 그 모형을 볼 수 있을 정도로 현실화 가능성이 높다.

정작 심각한 것은 ‘핵전쟁’과 연관된 경우다. 즉, 상대국의 핵공격 준비 모드에 대비하기 위해 AI시스템을 구축해둘 경우, 인간이 반격이나 방어를 위해 내리는 의사 결정보다 더욱 빠르게 AI가 ‘결단’을 내리는 상황을 배제할 수 없다.

이에 대해 구글의 전 CEO 에릭 슈미트는 “상대국이 발사한 핵 미사일이 너무 빨리 도달하기 전에 AI방어체계와 같은 자동 대응이 있어야 한다는 것인데, 만약 그게 잘못된 신호라면 어떻게 될까”라고 ‘뉴욕타임즈’에 반문했다.

핵공격․방어, 인간보다 빨리 AI가 결정?

실제로 과거 역사가 이를 입증하고 있다. 미․소 냉전은 ‘잘못된 경고’의 서사로 가득했다. 핵 대응 연습에 사용될 훈련용 경고음 테이프가 잘못된 시스템에 삽입되어 들어오는 바람에 소련의 대규모 공격을 알리는 경보를 발하는 사태가 드물지 않았다.

‘뉴욕타임즈’가 소개한 미국 ‘신안보센터’의 폴 샤레는 2018년 저서 <아무도 사용하지 않는 군대>에서 “1962년부터 2002년까지 최소 13건의 핵 사고가 있었다”면서 “이를 통해 인류는 핵무기는 늘 일촉즉발의 상황을 유발하는 것이 오히려 ‘정상적’이란 인식을 갖게되었다”고 밝혔을 정도다.

그런 이유로, 초강대국들 사이에 그나마 긴장이 완화되거나 했을 때마다 각국 지도자들은 핵무기 제재를 위해 많은 시간을 들여 협상을 하곤 했고, 그 덕분에 경솔한 결정으로 실제 충돌을 일으키는 상황을 피할 수 있었다.

그러나 이른바 ‘생성 A.I’가 출현하면서부터 이제 상황이 달라지고 있다. 이를 핵무기 시스템에 접목할 경우 전혀 다른 방향, 즉 (핵무기 발사 시스템에 대한) 더욱 빠른 의사 결정으로 몰아갈 것이란 우려다.

미국의 군사전문가들은 또 다른 큰 ‘위험’을 예고하고 있다. 이들은 ‘북한’(North Korea)과 같은 ‘불량한 소국’을 특히 경계하고 있다. 북한을 비롯한 개별 테러리스트나, 랜섬웨어 그룹처럼 고급 사이버 기술을 보유한 세력들이 비교적 작은 버전의 책GPT를 복제하는 것이 그런 경우다. 이들 나름의 ‘생성AI’를 개발, 사이버 공격을 가속화하고, 허위 정보를 무차별적으로 유포할 수도 있다는 걱정이다.

챗GPT 출현으로 AI군비 경쟁 본격화 전망도

물론 이와 관련한 논란도 이어지고 있다. 마이크로소프트에서 검색 엔진과 생선AI를 접목, 그 기능을 개선하는 노력을 하고 있다는 톰 버트는 최근 조지 워싱턴 대학에서 열린 포럼에서 “AI시스템은 공격자의 비정상적인 행동을 더 빨리 감지하도록 도움을 줄 것”이라며 “특히 표적화된 허위 정보의 확산을 인공지능이 제압할 수 있을 것”이라고 주장했다. 그러나 다수의 전문가들은 “희망 사항일뿐”이라며 그의 의견에 동의하지 않고 있다.

이번 백악관의 ‘AI 회의’는 챗GPT가 등장, 기술 붐이 일면서 미국의 정책 입안자들도 자칫 AI가 국가안보를 위협하는 치명적 무기가 될 수 있을 것이란 우려가 팽배한 가운데 열렸다. 실제로 미국의 정책 입안자들은 주요 빅테크들이 개발한 ‘생성AI’ 시스템을 접목, 중국, 러시아 등과 점차 가열되고 있는 군비 경쟁에서 우위를 점하려는 노력을 기울이고 있다.

이와 함께 한켠에선 “AI군비 경쟁을 억제하고, 새로운 패러다임의 군비 통제가 있어야 한다”는 목소리도 높다.

미국과 중국, 러시아 등은 서로 상대방이 시도하는 ‘AI 군비’를 예의주시하며 대응책을 모색하고 있다. 물론 아직은 군비 통제에 대한 어떠한 가시적인 합의도 없다. 미 현지의 군사 전문가들은 “아직까지 그러한 (AI)자율 무기를 다루는 조약이나 국제 협정은 없다. 군비 통제 협상이 번번이 무산되고 있는 현실에서 그럴 가능성도 희박하며, 특히 챗GPT와 같은 인공지능에 대한 각국의 태도와 인식도 각기 다른게 현실”이라며 한계를 지적하고 있다.