XAI…‘설명 가능한 AI’

2021-02-15     박경만 주필

AI 알고리즘이 경제, 사회, 문화 등을 망라하는 날이 다가오면서 참으로 애매한 AI와의 관계맺기도 생겨난다. 만약에 사람 아닌 AI가 처리한 민원업무에 불만이 있다면 누구에게 항의해야 할까. AI 자산관리 서비스가 추천한 정보에 따라 투자했다가 손해를 봤다면 또 어떻게 할 것인가. 그렇다고 감성도 인격도 없는 AI알고리즘과 말싸움을 벌일 수도 없는 일이다. 알고리즘을 만든 사람을 탓하는 것도 민망한 일이다. 그래서 나온 얘기다. 어떤 세상 일이나 물건이든 AI가 적용되었다는 사실을 명확히 공개하라는 것이다. 이른바 ‘설명 가능한(Explainable) AI’라는 정언명령이 그것이다.

AI 적용 여부를 밝히는 것은 너무나 당연한 듯 하지만 그 내막은 좀 착잡하고 복잡하다. 이는 인간이 속기쉬운, 수준 높은 AI기술의 윤리성과도 맞닿는다. 한때 세계경제포럼(다보스)은 “명확하게 정의된 업무, 계량화가 가능한 업무일수록 알고리즘 설계가 용이하다”고 했다. 그 말인즉 자동화 기계나 인공지능이 그 정도 인간의 작업은 수월하게 접수할 것이란 뜻이다. 그러면서 다보스는 “육체적 능력이나 콘텐츠 기술보다 복잡한 문제 해결능력, 사회적 기술, 시스템 기술의 보유자만 살아남는다”고 했다. 감히 AI가 범접하지 못하는 영역을 말한 것이다. 그러나 틀린 말이다. 오늘날 그런 다보스의 정의는 한낱 빗나간 희망사항으로 격하되고 말았다.

이대로라면 AI는 인간의 조수가 아닌 동역자급 아바타가 될 판이다. 이미 지능형 자동화 플랫폼에 탑재되어 디지털 워크플로우의 조종사 역할을 하고 있다. 지능형 플랫폼에 탑재된 머신러닝이나, 자연언어처리기술, 이미지 인식 기술은 날로 스스로 진화하며, 인간 지능의 수위와 가까워지고 있다. 그래서 제 아무리 복잡한 문제 해결능력이나 사회적 기술이 필요한 일도 AI가 처리해낼 날이 멀지 않았다. 그래서다. AI에 속지 않기 위해서도 ‘설명 가능한 AI’, 즉 ‘XAI’가 절실해지는 것이다.

애드리브 인지능력이라고 할까. AI는 이제 인간이 굳이 구조와 틀을 만든 데이터가 필요없는 단계에 왔다. 정보를 제 알아서 추출하고, 비구조화 데이터에 인지적 캡처 지능을 가미해서 자신만의 데이터 인사이트를 구현한다. 다시 말해 어떤 물건이든 서비스든 그 품질이 AI가 하기에 따라 결정된다고 볼 수도 있다. 달리 보면 좀은 불쾌하고 위협적이고 공포스럽다. 그렇다면 그런 불쾌함과 공포감과 경계심을 덜기 위해서, 아니 사람이 AI의 ‘주인’이 되기 위해서도 XAI는 필요하다.

AI 적용 여부가 제품과 서비스에 명시되어야 하고 AI 이용에 따른 불만이나 피해에 대한 보상 책임을 명확히 할 필요가 있다. 어떤 AI기술이 활용되었고, 알고리즘은 어떠하며, 관련 법규나 AI 윤리규정은 어떤 것인지 등에 대한 설명도 있어야 할 것이다. 이는 소비자의 ‘알권리’일 수도 있다. 물론 이 경우 공급자가 AI알고리즘의 난해함을 악용하는 꼼수 또한 경계할 일이다. 딥러닝과 같은 AI 기반의 계량 모델은 전문가가 아니고선 그 작동과 생성원리를 알기 어렵다. 내재된 변수끼리 상관관계가 명확하지 않고, 어떤 변수가 채택되었는지도 알기 힘들다. 그럴수록 공급자는 이를 자신들만의 암호가 아닌, 대중의 언어로 알기쉽게 해석해서 전달할 의무가 있다.

그렇게 되면 AI가 적용된 상품과 서비스로 인해 사고나 피해가 발생할 경우 책임 소재나 손해 보상의 범위가 분명해진다. AI가 추천한 자산에 투자했다가 손해를 본 경우도 그나마 하소연하거나 구상할 대상이 생긴다. 그렇지 않을 경우 AI 만능시대는 재앙 그 자체가 될 수도 있다. 기술 비관론자들이 걱정하듯 과학 이성과 합리를 숭배해온 근대성이 낳은 테크노퓨처리즘의 폭력이 될 수도 있다. 그렇게 보면 XAI는 곧 ‘적정기술’의 실천과도 닮았다. 곧 기술적 대상과 인간, 그 둘 사이의 소통과 협동, 균형있는 관계가 그것이다. 나아가서 XAI는 “인공지능, 넌 누구냐”라는 문명론적 심문에 대한 진술을 끌어내는 것이기도 하다.