네이버가 새삼 논란꺼리를 던졌다. 공정거래위원회는 “그동안 네이버가 쇼핑 검색에서 자사 상품이 먼저 뜨도록 검색 알고리즘을 조작해왔다”고 공표했다. 네이버는 이를 부정하고 있지만, 만약 공정위 발표가 사실이라면 ‘네이버 제국’의 신뢰도는 크게 추락할 판이다. 그렇게 되면 비단 쇼핑뿐 아니라, 가뜩이나 말이 많았던 뉴스 서비스조차 의심의 눈초리를 살 수 밖에 없다. 이번 일은 네이버가 문제이긴 하지만, 새삼 알고리즘이나 인공지능의 작동 문법을 돌이켜보게 한다. 알고리즘 맹신에 대한 반성적 성찰도 나오고 있다.
알고리즘은 애초 인간과 자연의 복잡한 현실을 단순화한 개념이다. 확률과 함수, 소수(素數)와 로그, 온갖 경우의 수를 도구삼아 카오스적 세상을 계측하는 매뉴얼로 떠받들어지고 있다. 허나 잠깐 따옴표를 둘러쳐보면, 꼭 그렇지만은 않다. 이번 네이버 사태에서 보듯, 그 객관성과 무결성에 대한 의심 또한 지우기 어렵다. 알고리즘을 생성하는건 애초 인간이다. 인간이나 인간성은 객관성이나 무결성으로부터 결코 자유롭지 않다. 그래서 알고리즘은 자칫 개발자의 ‘뇌’가 되기 십상이다. 조종석에 앉은 특정 인간의 판단 기준과 가치관의 아바타가 될 수도 있는 것이다.
심지어는 개발자 뜻에 따라 왜곡된 모형이 그대로 통용되고, 신뢰성있는 데이터가 작위적으로 배제되기도 한다. 단지 자신에게 필요한 가정들을 검증없이 재생산하고, 그 가정들을 확인하고 강화하는 데이터만 받아들인다. 그 결과는 왜곡된 예측모형이다. 송수신하고픈 주파수 대역 이외의 것들은 걸러버리는 확증편향으로 얼룩진 알고리즘만 양산하게 된다. 오죽하면 ‘데이터가 지배하는 신(新)중세시대’를 예언하고, 과학 이성의 과잉으로 인한 인류사의 암흑기의 도래를 걱정하는 목소리가 나올까.
하긴 수학자 캐시 오닐은 이미 “알고리즘이 신을 대체했다”고 경악해마지 않았다. “태양이 지구를 돈다”는 식의 반동적인 도그마와, 차별과 무지, 반(反)공화적 혐오가 알고리즘의 옷을 입고 횡행하곤 하는 현실을 경계한 것이다. 물론 많은 데이터 과학자들은 겸허하게 새로운 데이터를 피드백하며, 양해하고 수정하는 과정을 무한 반복한다. ‘객관화’에 대한 치열함으로 알고리즘 세상의 서사적 가치를 보장하려 한다. 그러나 그게 쉽지만은 않다. 애당초 객관화된 공식이나 공정한 빅데이터로 인간과 세상을 공정히 재단한다는 명제 자체가 허구일지도 모른다. 그럼에도 오늘날 빅데이터와 알고리즘은 우주와 세상의 셋톱박스로 칭송받고 있는 것이다.
그렇다보니 재료가 되는 데이터에 대한 식별능력이나, 객관적이고 치밀한 분석 메커니즘이 강조되고 있다. 다시 말해 ‘데이터 리터러시’가 중요시되고 있는 것이다. 산업계에선 그런 각성을 토대로 한 ‘비즈니스 인텔리전스’(BI) 기법도 빼놓을 수 없는 미덕이 되고 있다. 데이터를 정밀하고 객관적으로 분석할 수 있는 도구를 추출하고, 변별해낼 수 있는 노하우가 그것이다. BI를 위한 소프트웨어도 시중에 차고 넘친다. 이들 대부분은 제각기 다양한 데이터 분석 기술을 동원해 가짜와 진짜를 분별하는데 쓰인다. 그러나 그 마저도 장담할 수 많은 없다. 워낙에 데이터 생산자인 ‘인간’과 ‘인간성’이 불순하고 흠결이 많기 때문이다.
네이버에 대한 최종적 유죄 판정은 아직 두고 볼 일이다. 다만 이번 일이 알고리즘의 신화, 즉 ‘알고리즘 질서’에 대한 합리적 의심의 계기가 된 것은 분명하다. 돌이켜보면 네이버는 평소 “이용자의 다양한 질의에 가장 적합한 정보를 제공하는 것을 가장 중요한 가치로 둔다”고 다짐해왔다. 그렇다면 이번에 네이버에 가해진 시민사회의 ‘다양한 질의’에 적합한 답변이 있어야 할 것이다. 알고리즘의 허위의식이 인간은 물론, 신의 경지까지 대체해선 안 되기 때문에 더욱 그렇다.
