‘AI 윤리’ 차원서 편향성 수정 가능 여부 ‘논란’ 치열

인공지능의 편향성이 늘 문제가 되고 있긴 하지만 완벽하게 공정한 AI를 만드는 것은 사실상 불가능하다는 전문가들의 고백이 최근 잇따르고 있다. 이는 마치 플라톤의 ‘동굴 우화’처럼 GAN이나 GNN 등으로 AI를 생성하는 인간의 인식 능력과 시야부터가 제한적이라는 지적이다.

설사 AI가 인간이 만든 훈련장치에 의해 학습을 한다고 하더라도 데이터에 편향이 있다면 AI는 이를 수용할 수밖에 없다. 그런 데이터를 생산하는 것 역시 궁극적으론 인간이 하는 일이고, 그런 인간은 원천적으로 편견을 갖고 있다는 철학적 분석도 이를 뒷받침하고 있다.

(제공=픽사베이)
(제공=픽사베이)

흔히 AI의 공정성과 보편성을 위해 최근 ‘설명 가능한 AI’(XAI)에 대한 요구가 많다. 그러나 AI와 자율주행기술의 전문가로서 국내 언론에도 자주 등장하는 미국이 피터 웨이너는 “이는 또 하나의 거북이일 뿐”이라고 냉소적 입장을 보였다.

‘설명 가능한 AI’를 위해 최근 AI 생성자들은 애초 ‘AI가 무엇을 하고 있는지 무엇을 하려는지’에 관해 설명하려는 노력을 기울이고 있긴 하다. 그러나 웨이너는 “알고보면 데이터에 의해 AI가 만들어지는데 그 데이터 역시 훈련된 모델이 데이터 세트의 특정 부분에서 나온 매개변수에 크게 의존하고 있다”고 그런 노력의 한계를 지적했다.

그는 특히 “이른바 ‘설명’이라는 것은 마치 다른 마술을 수행하면서 또 다른 마술을 설명하는 마술사와도 같다”면서 “AI가 왜 그런 일을 하는지, 이유를 설명하는 것은 매우 어렵다. 단순한 선형 모델을 보고 매개변수를 조사할 수 있지만 답을 찾기란 대단히 힘든 경우가 많다.”고 술회했다.

물론 공정하고 편견없는 AI를 위한 방법론을 제시한 전문가도 있다. 구글의 소프트웨어 전문가 피터 노빅은 최근 “AI의 공정성과 편견을 확인하기 위한 좀더 진지한 방법은 내부 동작이 아닌 산출물을 확인하는 것”이라며 은행 창구에서의 대출 과정을 비유했다. 예를 들어 대출 창구에서 AI에 의해 거절 당한 경우가 대표적이다.

이때 AI에게 설명을 요구하면 “담보가 충분하지 않다”고 말할 수도 있다. 그러나 사실은 신청자의 피부색이나 직업이 마음에 들지 않아서 그럴 수도 있다. 그러면 어떻게 AI의 ‘속마음’을 알아낼 수 있을까.

이때 노빅은 “다양한 주변 상황과 대출 심사를 위한 ‘경우의 수’ 등 모든 의사결정 과정을 살펴보면 편견 유무를 알 수 있다. ‘설명’만으로 안 된다면 그런 확인 방안이 없는 것도 아니다”고 설명했다.

국내 전문가들이나 학자들 간에도 노빅의 판단과 궤를 같이하는 경우가 많다. 정보통신연구원 문정욱 센터장은 최근 ‘인공지능 윤리기준’ 주제의 한 세미나에서 ‘인공지능의 편향성’을 제어하는 몇 가지 원칙을 제시한 바 있다. 이는 인간이 인공지능의 ‘공정성’을 견인하고 담보할 수 있다는 전제를 그 바탕에 깔고 있는 셈이다.

문 센터장의 설명에 의하면 인공지능의 편향성으로 인한 위험을 방지하려면 개발이나 활용 과정에서 책임주체를 설정하는게 중요하다. 설계자, 개발자, 서비스 제공자, 사용자간의 책임 소재를 명확히 해야 한다는 주장이다.

또 안전성 차원에서 개발이나 활용의 과정에서 명백한 오류나 침해가 발생할 때는 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 해야 한다고 주문했다.

문 센터장은 특히 사회적 신뢰도 강조했다. 인공지능 기반의 제품이나 서비스를 제공할 때 그 활용 내용과 활용 과정에서 발생할 수 있는 위험 등 유의사항을 사전에 고지해야 한다는 것이다. 이는 그 동안 관련 전문가 집단에서 강조해온 ‘설명 가능한 AI’와 같은 맥락으로 받아들여지고 있다.

그럼에도 불구하고 ‘AI의 공정성’이 가능한지를 둔 논쟁은 날로 뜨거워지고 있다. 앞서 웨이너는 아예 “공정하기란 불가능하다”고 단언하고 있다. 그는 “중립적인 AI가 비편향적 결정을 내리도록 요구한다면 세상이 더 공정해질 수 있을 것이라고 생각하기 쉽겠지만 그 실현은 매우 어려운 일”이라고 잘라 말했다.

한 발 나아가서 그는 “AI를 공정하도록 만드는 것이 진정한 해법인가”라고 반문하고 있다. 즉 알고리즘의 편향성을 바로잡는답시고 또 다시 AI의 공정성을 위해 척도를 조작하고 알고리즘을 재작성해 결과를 변경한다면 그것 역시 편향된 어떤 결과에 이를 것이란 지적이다.

결국 전문가들이 이런 논란은 “진짜 문제는 인간”이라는 인식론적 논의로 이어지고 있다. 즉 AI 자체가 문제는 아니라는 것이다. AI는 그저 인간이 시키는 일을 할 뿐이며, 이들이 지나치게 혼란스러워지면 잘못된 메시지를 생성할 수 있고, 데이터나 훈련 세트가 완벽하지 않으면 부정확한 결과를 도출할 수도 있다는 것이다. 그래서 알고리즘과 AI의 공정성과 편향성을 둔 논란은 끝없이 이어질 전망이다.

키워드

#AI
저작권자 © 애플경제 무단전재 및 재배포 금지