AI 에이전트, '무용론’ 나올만큼 ‘기대 이하’
‘추론’ 기능 무색, 오류 잦고, 복잡하고 어려운 업무는 ‘회피’ 보안 기능도 취약, ‘AI에이전트 취약성 감시 위한 또 따른 에이전트 투입도“ “출시 모델보다는 실제 사용 사례에 더 집중, 검증해야”
[애플경제 전윤미 기자] AI 에이전트가 널리 보급되며 빠르게 인간의 일자리를 대체하고 있다. 그러나 현실은 다르다는 지적이다. 아직 혹은 앞으로도 영원히 “AI가 인간을 대체하거나, 능가할 순 없을 것”이란 명제를 가능하게 하는 현상들이 AI 에이전트 현장에서 일어나고 있다.
최근 세계 도처에서 AI에이전트에 의한 AI자동화가 확산되고 있다. 그러나 “AI가 제 아무리 뛰어난 ‘추론’을 해도 불량 제품은 감출 수 없다”는 볼멘 소리가 갈수록 커지고 있다. 이는 자신이 만든 제품에 대한 자부심과 오만에 가까운 자신감을 갖고 있는 AI 개발자에게는 모욕적일 수도 있다. 그래선지 이들 개발자들은 애써 이런 현실을 부정하고 있다. 그러나 현실은 그런 바람과는 사뭇 다른 모습이다.
출시 시점부터 ‘과대 광고’ 남발
AI 에이전트는 한동안 기술 분야에서 가장 핫한 신제품으로 자리 잡았다. 생성 AI의 명성과 100년 넘게 이어져 온 진정한 지능형 자동화의 ‘신화’를 현실에 되살린 기술로 각광받고 있다. 빅 테크들은 AI 에이전트를 개발, 출시하면가 “상세한 사용자 프롬프트에 따라 작업을 자동으로 완료함으로써 초기 LLM(학습 전문가)이 할 수 없었던 수준의 약속을 실현할 수 있다”고 1년 여 동안 약속해 왔다. 에이전트 AI의 ‘잠재력’을 한껏 강조한 것이다.
대표적으로 마이크로소프트의 경우 “2028년까지 전세계적으로 13억 대의 AI 에이전트가 작동할 것”으로 예상했다. 그러면서 “협업을 수행하는 에이전트들이 광활하게 상호 연결된 세상”을 그려냈다.
그러나 AI에이전트가 활발히 보급된 후의 현실은 이와 다르다. AI에이전트는 기업과 업무 현장에서 그다지 큰 역할을 하지 못하는 경우가 대부분이다. 가트너에 따르면 이미 많은 IT 의사 결정권자들은 이를 예전부터 짐작하고 있었다. 전세계에 보급된 10억 대 가량으로 추산되는 AI 에이전트는 가장 간단한 작업만 수행할 수 있다. 생산성 측면에서는 큰 변화를 가져오지 못하고 있다.
더욱이 복잡하고, 고난도의 업무나 작업 현장엔 AI에이전트를 아무리 많이 늘려봐여 별 소용이 없다는게 기업들의 반응이다. “마치 업무 능력이 부족한 직원을 그저 숫자만 늘리는 것과 같다”는 것이다. 심지어는 “원숭이에게 차 열쇠를 건네주는 격”에 비유하는 목소리도 있다.
최근엔 ‘AI에이전트 무용론’마저 나오고 있다. AI 에이전트는 업무를 (기대만큼) 제대로 수행하지 못하거나, 적어도 투자 수익률(ROI)을 창출하는 데엔 전혀 도움이 안 된다는 얘기다.
마침내 가트너는 “2027년 경엔 현재 출시된 AI 에이전트의 40%가 도태될 것”으로 예상하며, “기껏 기존의 RPA나 챗봇을 재포장한 수준이어서 실망감을 갖는 기업들이 많다”고 전했다. 그럼에도 정작 가트너의 이런 조사와 분석이 나오기까진 차마 ‘AI에이전트 무용론’을 거론하는 경우가 드물었다. 그러나 그 실태가 조금씩 알려지면서 이젠 공공연한 논쟁적 사안이 된 것이다.
가트너, “2027년 경 출시된 AI 에이전트 40% 도태”
새삼 돌이켜보면, 빅테크 중심의 생성AI모델이나 이를 기반으로 한 솔루션의 마케팅 기법은 일정한 패턴이 정해져있다. 개발자가 새로운 아키텍처나 프레임워크를 개발 출시하면 본격적인 과대광고가 쏟아진다. 해당 AI도구가 마치 ‘천지개벽’이라도 할 것처럼 엄청난 혁신을 약속한다. 그 후 대략 2년 정도에 걸쳐 해당 제품 판매를 극대화하는데 올인하곤 한다.
그러다가 시장에서 해당 제품은 실망감을 안겨주며, 퇴출된다. IT 팀도 좌절하고, 최신 AI 과대광고에 속은 소비자들 역시 혼란에 빠지게 된다.
그렇다고 AI를 활용해선 이익을 창출하지 못한다는 뜻은 아니다. IT프로의 멀티미디어 전문가인 로리 베쓰게이트는 “단지 자율 AI 에이전트에 대한 과잉 기대가 문제”라면서 “무조건 이를 도입하기만 하면, 성장과 생산성을 자동적으로 높일 수 있다고 생각하다가, 예상치 못한 결과에 크게 당혹해하는 경우가 많다”고 짚었다.
AI 에이전트는 특히 기업체 보안 부서에서 칭찬과 비판이 엇갈리고 있다. 어느 쪽이든 AI 에이전트에 대한 신뢰는 그 바람에 감소하고 있다. 그래서 보안 전문가들은 “보안 측면에서 AI 에이전트가 갖는 위험성에 대한 논의를 본격적으로 해야 한다”는게 공감을 표하고 있다. 그런 가운데 ‘웃지 못할’ 해프닝도 벌어지고 있다. AI 에이전트가 제대로 작동하지 않아 보안상 피해를 입을 우려가 커지면서, 이에 대처하기 위해 또 다른 AI 에이전트를 도입, 기존 AI에이전트를 감시하는 데 활용하고 있다. 이른바 ‘수호 에이전트’인 셈이다. 가트너는 “이런 ‘수호 에이전트’가 2030년까지 AI에이전트 시장의 10~15%를 차지할 것”으로 예측했다.
결국 AI 에이전트는 이처럼 신뢰와 불신을 오가는 선택지로 전락하고 있다. 물론, AI 에이전트 판매 기업들은 “퇴근 시간이 없는 직원”이라며 여전히 이를 홍보하기에 바쁘다. 그러나 이 또한 ‘양날의 검’과 같다. 클라우드 AI 모델을 ‘추론’하는 데 드는 비용을 애써 감춘 것이다. 만약 ‘퇴근 없이’ 24시간 내내 정보를 처리할 경우 그 비용 또한 막대하다.
“‘추론’은 사실상 큰 효과없어” 지적도
1세대 AI 에이전트의 경우는 개발자들 스스로가 “이런 도구는 항상 인간의 감독을 받을 것”으로 생각했다. 그래서 환각으로 인한 중대한 실수를 방지하고, 특히 코드 배포 과정에서 치명적인 오류를 막을 수 있을 것으로 봤다. 그러나 역설적으로 이는 “지속적인 인간의 감독 없이 자율적으로 작동할 수 있다”는 AI에이전트의 장점을 무색하게 하는 대목이다.
개발자들은 특히 ‘추론’ 기능에 큰 기대를 걸었다. 이를 LLM의 다음 단계로 기대하며, 사용자 요구 사항을 단계별로 세분화한 프롬프트로 한층 자세하고, 편리한 응답을 제공할 수 있을 것으로 내다봤다. 문제는 추론이 제대로 작동하지 않는다는 점이다.
이는 올해 초 애플의 한 연구에서도 드러났다. 이에 따르면, 추론 모델은 일정 수준 이상의 복잡한 문제에 직면하면, 아직 해결할 수 있는 토큰이 남아 있더라도 그냥 포기해 버리는 것으로 나타났다. 앞서 로이 베쓰게이트는 이에 “기술 미디어에 종사하다 보면 정기적인 제품 발표에 휘둘리기 쉽다”면서 “그럴수록 모델 출시보다는 실제 사용 사례에 더 집중, 검증해야 한다”고 밝혔다. ‘AI 에이전트 무용론’까지는 몰라도, 그 잠재력을 제대로 확인하기 위해서라도 실제 현장에서의 사례와 효용성을 따져봐야 한다는 지적이다.