AI 에이전트, “천문학적 비용, 강화학습, 안전성이 문제”

고도의 추론능력 위해 수 천번의 학습, ‘기존 AI챗봇의 수 십배’ “사용자 명령의 ‘함의’ 충분히 이해하기 위한 학습과 훈련 필요” ‘인간에게 어떤 위험 안길지 예측 불가’도 문제

2024-10-31     전윤미 기자
기업용 AI에이전트 이미지. (사진=셔터스톡)

[애플경제 전윤미 기자] 생성AI 시대는 이제 AI에이전트로 인해 훗날 기약하는 특이점(Singularity)으로 가는 경로를 단축시켰다. AI 에이전트는 사람과 하드웨어 간의 상호작용에 큰 발전을 가져오고 있다. 자율기능은 물론, 주체적인 피드백 기능과 마치 인간이 그러하듯, 각종 도구를 활용할 줄 아는 능력 등이다.

최근 빅테크를 비롯한 주요 기업들은 AI에이전트를 통해 일각에서 일고 있는 ‘AI회의론’을 잠재울 수 있다는 기대도 하고 있다. 그러나 AI에이전트는 애초 LLM이 출현할 때 시장 진입 장벽이 높았던 것 이상으로 많은 비용과 기술적 애로, 그리고 반드시 해결해야 할 문제점 등을 안고 있다.

“수많은 실세계 데이터 기반, 고도화 필요”

LG경영연구원은 이에 “상호작용을 넘어 실세계에서의 물리적인 움직임을 만들어내려면, 여전히 방대한 3D 시뮬레이션 데이터를 기반으로 한 강화학습이 필수적”이라며 AI에이전트의 고비용과 위험성을 짚으며 주의를 환기시켰다.

특히 강화학습을 수없이 반복하며 훈련하는 과정에서 비용과 노력이 엄청나게 든다는 지적이다. 그러면서 휴모노이드 AI 로봇의 예를 들기도 했다. 이에 따르면 로봇은 상당한 수준의 추론 능력이나, 이를 기반으로 한 동작 제어 능력이 없다. 사소한 움직임 하나하나를 수천번 반복 학습해야 겨우 연속 동작을 할 수 있다.

즉 “다양한 상황에서 물리적 작업을 하려면 강화학습을 수도 없이 반복하고, 수 많은 실세계 데이터를 기반으로 고도화가 필요한 상황”이란 얘기다.

이런 문제점은 애초 AI 에이전트가 기존 생성AI 기반 모델들과 차원이 다르기 때문이다. 우선 AI에이전트는 사용자의 의도나 명령에 담긴 ‘함의’를 충분히 이해할 수 있다. 그래서 명령을 통해 내려진 목표를 달성하기 위해 필요한 의사결정을 스스로 하며, 이를 행동으로 옮기는 것이다.

사람은 모든 생명체 가운데 도구를 사용할 줄 아는 유일한 존재다, AI에이전트야말로 그런 ‘사람’과 닮았다. 이는 다양한 도구와 리소스를 조합해 목표 달성을 향한 작업이나 절차를 실행할 수 있다. 더욱 획기적인 것은 스스로가 이룬 성과나 결과에 대해 검증과 수정, 재시도 등이 가능하다는 점이다. 피드백 내지 ‘재귀적 실행 능력’이다. 예를 들어 특정한 제품을 만들거나, 작업을 완수했을 경우 그 품질을 재평가하고, 하자나 틈새를 보완하는 등의 역할을 할 수 있다.

“AI 에이전트, 아직은 비용 대비 비효율적” 지적도

그렇다보니 이런 정도의 높은 역량과 기능을 갖추기 위해선 엄청난 데이터와 반복학습, 천문학적 비용이 들 수 밖에 없다. 전문가에 따라선 이런 이유로 “AI 에이전트의 구동은 아직 비용에 비해 효율적이지 않다”고까지 한다. 즉, 사용자의 명령을 완수하기 위해 작업 수행 계획을 작성하거나, 여러 도구를 실행하면서 여러 번 모델을 실행시켜야 한다. 그저 Q&A 방식의 기존 대화형 AI챗봇들과는 비교가 안된다. 경우에 따라선 기존 챗봇AI에 비해 수 십 배의 운영 비용이 발생한다는 지적이다.

이런 현실에서 AI 모델 개발 기업들은 그 대안으로 LLM 대신 sLM에 주력하듯, 경량화된 AI에이전트 모델로 눈을 돌리고 있다. 대표적으로 오픈AI는 지난 7월 GPT-4o 모델을 경량화한 GPT-4o Mini 모델을 공개했다. GPT4o Mini의 API 이용료는 기존 경량 모델인 GPT-3.5 Turbo에 비해 입력비는 70% 출력비는 60%나 저렴한 것으로 알려졌다. 구글도 Gemini-1.5 Ultra 출시에 앞서 경량화 AI 에이전트 모델인 Gemini-1.5 플래시를 공개했다. 이는 기존 Gemini-1.5 Pro 모델을 경량화한 것으로, 속도와 비용 측면에서 크게 개선된 모델이다.

앤트로픽도 자사 최고이 야심작인 클로드 3.5 Opus를 출시하기 이전에 역시 경량화 모델인 클로드 3.5 소네트(Sonnet)를 출시했다. 이들 경량화 모델들은 AI 에이전트가 대중화되었을 때, 서버 구동비를 낮추는 등 대안으로 제시되고 있다. 그럼에도 불구하고 “AI에이전트의 가장 문제점 중 하나는 역시 천문학적 개발비”라는 지적이다.

'AI엑스포코리아'에 참가한 업체의 부스로서 본문과는 직접 관련이 없음.

‘환각’, ‘정렬’로 인한 위험 부담도 커

그러나 그 보다 더 큰 문제가 있다. AI 에이전트가 장차 인간에게 어떤 위험을 안길지 알 수 없다는 점이다. 즉 기존의 유니버설 로봇이나 AI채봇, AI 디지털 비서 등에 비해 AI에이전트는 인간이 자신에게 명령하는 작업이나 과제의 ‘의미’를 충분히 이해할 수 있다. 이에 전체 공정이나 작업, 절차 등을 꿰뚫고 있다. 그 만큼 인간의 개입은 적고 편리해지며, 상대적으로 AI의 선택권이 커지는 것이다.

또한 여전히 문제가 되고 있는 ‘환각’ 현상이나 ‘정렬’(얼라인먼트) 문제로 인해 위험 부담도 커진다. 즉, AI 시스템을 인간의 의도와 목표, 선호도나 윤리적 원칙에 맞게 조정하지 않음으로써 문제가 생기는 것이다. 특히 “인간이 선한 의도에서 내린 명령을 AI가 잘못 해석하고 폭력적인 행동을 실행에옮긴다면 예상치 못한 참사가 발생할 여지가 크다.”는 우려다.

이는 AI가 어떤 사고방식으로 작동하는지 파악할 수 없는 현재, AI 비용 문제보다 심각하게 받아들일 사안이기도 하다. AI 업계와 학계는 이를 미연에 방지하기 위해 정렬 문제를 진지하게 받아들이고, 해결에 활발한 연구를 펼치고 있다. 아직 생성형 AI가 생각하는 방식을 인간이 정확히 이해하지는 못하지만, 인간의 가치관에 알맞은 생각을 하도록 ‘정렬’시키고자 노력하고 있다.