AI가 과연 합당하고 정확한 결과치를 내놓았나? 편견이나 오류(환각, halluciation)는 아닌가? 이런 의구심은 초대형 언어모델이 만들어낸 생성AI가 출현하면서 더욱 잦아지고 있다. 그 바람에 XAI의 효능감도 더욱 커지고 있다. ‘X’는 ‘설명할 수 있다’는 eXplainable’의 발췌자(字)다. 대체 어떻게 그런 결과가 나왔는지, 그런 답을 구하게 된 과정과 이유를 정확히 설명할 수 있는 인공지능(AI)이어야 한다는 얘기다. 생성AI 버전의 XAI라고 할까. 수 년 전 처음 등장할 때 개념과는 비교가 안 될 만큼 XAI의 위상 또한 높아지고 있다.

그 때만 해도 지금보다는 그 긴박감이 덜했다. 그저 어떤 제품에 AI기술이 스며들었는지, 만약 그렇다면 그 수준은 어느 정도인지를 명확히 밝히는 정도면 충분했다. 그러나 생성AI가 출현하면서 XAI에 매겨진 조건과 Q&A는 더욱 복잡해졌다. 단순히 AI라는 기계언어의 쓰임새나 간섭의 정도를 묻는 수준을 넘어서고 있다. 스스로 추론하고 생성해낸 것들의 정확도를 묻고, 평가하며, 그 합당함에 대한 설명을 요구하는 ‘질문’의 대상으로 승격된 것이다. 언어행위의 구성원이며, 또 다른 ‘서사’(narrative)의 구성체로 주목받게 된 것이다.

그 배경엔 기계에 대한 인간의 초조함이 잔뜩 묻어난다. 그대로 뒀다간 초대형 언어모델의 작동은 AI로 하여금 인간의 동역자급 아바타로 튀어오르게 할 수도 있다. 이미 지능형 플랫폼에 탑재된 머신러닝이나, 자연언어처리기술, 이미지 인식 기술은 날로 스스로 진화하고 있다. 지적 복제를 거듭하며 인간 지능과 상상력의 수위와 가까워지고 있다. 아무리 복잡한 문제 해결능력이나 사회적 기술이 필요한 일도 생성AI가 처리할 날이 멀지 않았다.

‘인지능력’이라고 할까. AI는 이제 인간이 굳이 구조와 틀을 만든 데이터가 필요없는 단계에 왔다. 정보를 스스로 추출하고, 비구조화 데이터에 인지적 캡처 지능을 가미해서 자신만의 데이터 인사이트를 구현한다. 다시 말해 어떤 물건이든 서비스든 그 품질이 AI가 하기에 따라 결정된다고 볼 수도 있다. 보기에 따라선 좀은 불쾌하고 공포스럽다.

그런 불쾌감과 공포감과 경계심을 덜어내고, 사람이 AI의 ‘주인’이 되기 위해 빼든 무기가 XAI다. 그 생성능력에 코뚜레를 채우는 것이며, 제멋대로 상상력을 펼쳐보이는 방자함에 고삐를 죄는 것이다. 애초 초대형 언어모델 기반의 생성AI의 생성 원리는 웬만한 사용자들로선 알기 어렵다. 그나마 XAI를 통하면 공급자가 AI알고리즘의 난해함을 악용하는 꼼수를 상당 부분 걸러낼 수 있다. 때론 내재된 변수끼리 상관관계가 명확하지 않고, 어떤 변수가 채택되었는지도 알기 힘들다. 그럴수록 공급자는 이를 자신들만의 암호가 아닌, 대중의 언어로 알기쉽게 해석해서 전달할 의무가 있다. 그걸 강제하는 것 또한 XAI다.

본래 우주 만물 가운데 유일하게 자연과 결별하고, 자연에 대한 객관적 구성과 해석이 가능한게 인간 아니던가. 인간은 자연에 대한 청지기이자, 자연을 설명할 수 있는 유일한 피조물이다. 제 아무리 생성력을 지닌 AI라고 해도 그에 미치지는 못한다. 그저 자연의 이치를 객관적으로 재구성한 결과물이며, 인간에 의한 피조물일 뿐이다. “설명 가능한 AI”는 곧 디지털 문명에 대한 인간의 주도권을 설명하는 도구에 불과하다.

그렇게 보면 XAI는 곧 ‘적정기술’의 실천과도 닮았다. 곧 기술적 대상과 인간, 그 둘 사이의 소통과 협동, 균형있는 관계가 그것이다. 나아가서 XAI는 “인공지능, 넌 누구냐”라는, 문명론적 질문에 대한 진술을 끌어내는 것이기도 하다. 그래서다. XAI는 단순히 AI의 오류와 실수를 지적하는데 그치지 않는다. AI에게 속지않고, 허락없이 인간의 범주를 무단히 침범하지 못하도록 심문하는 것이다. ‘설명 가능한 AI’, 즉 ‘XAI’는 인간을 위한 기계의 진솔한 해명이 될 수 밖에 없다.

키워드

#박경만 #XAI
저작권자 © 애플경제 무단전재 및 재배포 금지