질주하는 AI 기술... 고삐 필요성 시급

부작용 터져 나오자 “AI 연구 규제 도입” 목소리 터져 나와

2023-10-27     김남주 대기자

인공지능(AI)이 시대를 이끌고 있다. 인간지능의 한계를 극복하기 위해 인간은 인공으로 지능을 만들어 내기에 이르렀다. 인공지능은 일견 만능처럼 보이지만 그 이면에는 엄청난 위험성이 내포돼 있다. 어디로 뛸지 모르는 공처럼 불안정하다. 위험이 노출될 경우 그 폭발력은 상상을 초월한다. 인간의 창조성을 극대화해 이를 집약한 AI, 그 자유분방함에 고삐를 달아야 할 필요성이 시급한 실정이다.

AI의 위험성에 경고장을 날린 석학이 있다. 딥러닝 개념을 처음으로 고안한 제프리 힌튼 토론토대 교수다. 그는 지난 5월초 AI의 위험성에 대해 자유롭게 발언하기 위해 10년 이상 몸담았던 구글을 떠났다. 그는 구글을 떠나면서 당초 AI가 사람보다 더 똑똑해질 수 있는 시점이 멀었다고 생각했고, 30~50년 또는 그보다 더 멀다고 생각했다. 하지만 이제 분명히, 나는 더는 그렇게 생각하지 않는다. 테크 기업들이 AI 시스템을 발전시키면서 위험성은 증가하고 있다. 5년 전 AI와 지금 AI의 차이를 봐라. 두렵지 않은가라고 경고했다. 이런 맥락에서 그는 구글과 마이크로소프트(MS)의 경쟁을 언급하면서 “AI 연구에 대한 규제가 도입돼야 한다고 주장했다.

힌튼 교수의 지적처럼 AI가 벌써 말썽을 부리고 있다. AP통신은 지난 25“AI가 생성한 아동 성적 학대 이미지가 인터넷에 넘쳐날 수 있어, 사회적 감시견들이 이에 대한 강력한 조치를 촉구하고 있다면서 이를 우려하는 미국 시민단체와 활동가들의 움직임을 전했다. 통신은 이어서, 영국에 본사를 둔 인터넷 감시 재단(I.W.F : Internet Watch Foundation)이 서면 보고서를 통해 “AI가 생성한 아동 성적 학대 이미지가 홍수처럼 쏟아져 법 집행 기관을 압도하고 잠재적 피해자가 엄청나게 늘어나기 전에 정부와 기술 제공업체에 신속하게 조치를 취할 것을 촉구했다고 덧붙였다.

통신에 따르면 이들 단체는 특히 딥페이크 사진을 생성하는 AI 도구를 통제하기 위한 조치를 취하지 않으면, 이미 인터넷에서 아동 성적 학대 이미지가 확산되고 있다는 우려스러운 상황이 훨씬 더 악화될 수 있다고 경고했다.

조금 뒤늦은 감이 있지만 AI를 제어할 방어기제에 대해 우리 정부가 대응 태세를 취하고 있어 눈길을 끌고 있다. AI의 위험성에 관한 우려에 대응하고 안전한 AI 확산 방안을 논의하기 위해 4차 인공지능 최고위 전략대화가 이날 열렸다. AI 최고위 전략대화는 국가 AI 경쟁력 강화를 위해 민·관이 함께 정책·투자방향, 전략적 협력방안을 논의하는 AI 대표급 협의체다. 지난 20219월부터 현재까지 총 3차례 개최됐다.

이날 행사에서 정부는 AI 윤리 기준 마련과 신뢰성 확보를 위해 민간이 자율적으로 AI 서비스에 대한 검·인증을 진행할 수 있도록 하고, AI 분야별 가이드라인을 마련하기로 했다. 정부는 또 생성형 AI로 인한 위험성 등을 줄이기 위해 AI 창작물에 워터마크를 도입하는 방안 등도 추진한다.

이번 행사는 지난달 대한민국 초거대 AI 도약행사에서 기업들이 AI 신뢰성 강화를 위해 필요한 안전조치를 자발적으로 마련하겠다고 약속했던 선언의 후속으로 마련됐다. 과기정통부는 그간 진행한 간담회와 현장방문 등에서 수렴한 의견들을 토대로 ‘AI 윤리·신뢰성 확보 추진계획을 발표해 향후 민·관이 함께 나아가야 할 방향에 대해 공유했다.

AI 윤리·신뢰성 확보 추진계획은 민간 자율 AI 윤리·신뢰성 확보 지원 세계를 선도하는 AI 윤리·신뢰성 기술·제도적 기반 마련 사회 전반 책임 있는 AI 의식 확산 등 AI 윤리·신뢰성 모범국가를 위한 내용 등으로 구성된다.

세부 추진과제를 살펴보면 먼저 '국가 AI 윤리기준'을 구체적 실천수단으로 채용해 생성형 AI 기반 서비스 등 분야별 가이드라인을 마련·확대하고, 민간 자율 신뢰성 검·인증을 다음 달부터 추진할 계획이다. 특히 AI 사업 중 고위험 영역 AI 개발·실증 사업을 수행하는 기업을 일부 선정해 올해 12월 시범 인증을 추진한다.

AI 자체가 내포하는 편향성, 불투명성 등 기술적 한계와 AI 오작동 등에 따른 잠재 위험요인에 대응하기 위해 기존 AI의 한계를 극복하고 초거대 AI의 신뢰성을 확보하기 위한 기술개발도 내년부터 신규로 추진한다.

또한 챗GPT와 같은 초거대 AI의 확산으로 AI가 가져다 줄 혜택에 대한 기대와 함께 안전에 대한 위험성 우려가 확대되고 있는 상황에서 AI가 생성한 결과물에 대한 워터마크 도입의 제도화를 검토하기로 했다.