앱에 내장된 획일적 AI에이전트, “위험하고, 비효율적”

각종 비즈니스 앱, 기업용 SW, SaaS 등 망라, ‘급속도로 확산’ 공급업체와 연계, 보안·기밀성 침해, 생산성과 정확도 떨어져 “자체 AI 도구 또는 특화된 용도 맞춤형 AI 도구 개발 바람직”

2025-04-20     이윤순 기자
AI 에이전트 사용자 이미지. (출처=아이스톡)

[애플경제 이윤순 기자] 거의 모든 애플리케이션에 AI 에이전트가 급속히 보급되면서, 그 효율성이나 생산성, 비용 등 여러가지 부정적 측면이 지적되고 있다. 이를 효율적으로 관리하는 것 또한 무척 까다로운 일이 되고 있다는 얘기다.

갈수록 대부분의 애플리케이션에 챗봇이나, 코파일럿, AI검색 기능 등이 접목되고 있다. 사진을 트리밍하고 배경을 제거하거나, 줌(Zoom) 통화를 요약하고, 보안을 위한 방화벽을 설정하는 등 다양한 용도에 활용되고 있다. 이같은 AI 도구들은 시간과 비용을 크게 절약해 줄 것이란 기대 또한 크다.

애플리케이션 전반에 AI에이전트, ‘무분별한 확산’

하지만 문제는 이처럼 애플리케이션 전반에 걸쳐 AI 도구가 무분별하게 확산되고 있다는게국내 SW업계 일각의 지적이다. AI미들웨어를 출시하고 있는 스타트업 ‘티쓰리큐’ 관계자는 “AI 에이전트를 최대한 효율적으로 활용하려면 에이전트가 무엇을 할 수 있는지, 그리고 업무상 어떤 작업을 AI에이전트에게 맡겨야 할 것인지에 대한 분명한 이해가 선행되어야 한다”고 조언했다.

즉, AI에이전트로부터 기대할 수 있는 생산성 향상과 정확성, 보안, 기밀성, 그리고 고객 만족 등을 두루 고려하는게 중요하다는 얘기다.

이 관계자는 “물론 AI 도구는 시간을 절약할 수 있다. 다른 자동화 기술과 마찬가지로, FAQ 답변과 같은 반복적인 작업에서 AI 에이전트 성능이 가장 뛰어난 경우가 많다”면서 “사람은 장시간 작업할 경우 실수를 저지르기 쉽지만, 챗봇은 휴식을 취할 필요가 없다”고 장점을 꼽았다.

그러나 “기업으로선 자칫 AI에이전트로 인해 경쟁사일 수도 있는 생성AI 공급업체와 연계될 가능성이 있어 우려된다”면서 “이는 최악의 경우 AI를 믿지 못하게 되거나, 기업 자체적으로 맞춤화되고 안전하며 기밀성이 보장되는 AI 도구를 개발하려는 노력의 걸림돌이 될 수도 있다”는 지적이다.

MS 코파일럿 사용자 상당수 “성능에 실망”

현재 마이크로소프트 ‘빙’의 경우 제미니 또는 코파일럿 등을 가리지않고 두루 도입한 바 있다. 또한 고객 민원이나 문의를 필터링하고, 제품을 추천하는 등 웹 애플리케이션 분야에서 활발하게 접목되고 있다. 그런 과정에서 때론 부적절하거나 엉뚱한 제안을 하는 등 문제도 생기고 있다.

그럼에도 AI 에이전트는 마이크로소프트 365, 구글 워크스페이스 등과 같은 유명 애플리케이션을 비롯해 각종 패키지 형태의 비즈니스 앱이나, 기업용 SW, SaaS 등에 두루 포함되어 있다. 이들은 각기 독자적이고 다양한 AI 엑세스 방식을 갖고 있다. 서로 다른 모델과 학습 데이터를 사용하고, 쿼리 처리 방식도 각기 다르다.

글로벌 시장분석업체인 ‘프리덤 다이내믹스’ 역시 최근 앱에 대한 AI에이전트 접목의 부작용을 지적하고 있다. 이 회사의 조사에 따르면 MS 코파일럿을 도입한 기업의 3분의 1 이상이 “그 성능과 결과에 실망했다”는 반응을 보였다. 비용도 문제다. 내장형 AI 에이전트는 무료가 드물다. 그럼에도 사내 구성원 모두가 실제 필요성 여부와 관계없이 이를 무조건 도입, 사용하는 경우가 많다. 그 때문에 당연히 비용이 많이 들 수 밖에 없다.

(출처=셔터스톡, 테크크런치)

그렇다보니 최근 국내에서도 이에 대한 나름의 각성이 일기도 했다. AI스토리지 솔루션 등을 출시한 SW업체 베이넥스(주)의 한 관계자는 “이제 대기업은 자체 AI 시스템을 구축하고, LLM을 검색 증강 생성(RAG)이나 자체 데이터 소스에 연결할 수 있는 역량을 개발하고 있다”면서 “즉, 자체 애플리케이션을 위한 AI 인프라를 구축할 수 있다.”고 전했다. ‘기성품’ 격인 AI에이전트 대신 자사 고유의 맞춤형 AI 도구를 생성하는 셈이다.

자체 개발이 어려울 경우 타사의 웹 기반 AI 에이전트를 사용하기도 한다. 베이넥스 관계자는 “이는 전문적인 SW 공급업체의 AI 솔루션에 의존하는 것보단, 좀더 사내 통제가 수월한 측면도 있다.”면서 “최소한 한 개 이상의 LLM을 표준화하고, 사용 방식을 규제하는 프롬프트나, 가드레일, 기타 규칙을 개발하기도 한다”는 얘기다.

또한 “회사로선 AI 도구를 자사의 요구 사항에 맞게 조정하고, 각 부서가 당면한 문제 해결에 도움이 되도록 AI를 설계할 수 있다”고 했다. 이를 위해선 “우선 (AI 에이전트 도입에 앞서) 무엇을 알아야 하는지, 어떤 목표를 위해선지를 명확히 해야 한다”면서 “이처럼 AI가 어떻게 사용될지를 명확하게 하면, ‘선택과 집중’ 방식의 투자가 가능하고, 기밀 유지나 보안과 관련된 허점을 피할 수 있을 것”이라고 했다.

“AI에이전트, ‘약방의 감초’ 인식은 잘못”

또 다른 전문가들도 “마치 AI를 ‘약방의 감초’ 격으로 인식하는 건 잘못된 태도”라는데 의견을 같이 한다. “무엇을 하려는지, 그리고 이러한 도구들이 어떻게 도움이 될지 명확하게 알아야 한다”거나, “여느 IT 프로젝트와 마찬가지로, 워크플로우와 개선 방안을 사전에 논의하는 것이 매우 중요하다”고 했다.

앞서 ‘프리덤 다이내믹스’는 특히 “각 부서별 특화된 용도에 맞는 AI 활용 시스템”을 강조하고 있다. 예를 들어 크리에이티브 팀은 AI를 활용, 제작 프로세스 속도를 높이고 영상 속 배경 소음을 제거하는 작업 등을 자동화할 수 있다. 또 SW개발 팀은 초보적인 코딩과, 애플리케이션 유지 관리에 AI를 투입할 수 있다. 또 다른 부서에선 코드 검증이나 감사, 문서 작성 등에 AI를 활용할 수도 있다.

그런 점에서 애초부터 애플리케이션에 내장된 AI 도구를 사용하는 것은 효과가 떨어질 수 밖에 없다는 지적이다. 또한 AI 사용에 대한 감독을 강화하고, 특히 ‘섀도 AI’가 확산되는 것을 방지하는 체계적 노력도 강조되고 있다. 이를 위해 “맞춤형 교육을 받기 전까지는 사내에서 코파일럿과 같은 AI에이전트를 가급적 사용하지 않는데 바람직하다”면서 “그저 AI를 활성화하기보다는 구체적인 용도에 활용하며, 지식과 경험을 쌓아야 한다. 그렇지 않으면 내장된 AI 에이전트 위험하면서도 값비싼 장애물이 되기 십상”이라고 했다.