‘초대형 생성AI’, 지속가능한 실용화 위해선 ‘걸림돌’ 많아
신뢰성, 오류와 왜곡, 사용자 개인정보 누출, 비용 부담 등 극복해야
각국 정부 규제 강화도 장벽, “극복 여부 따라 기술 운명 결정돼”
[애플경제 김향자 기자]챗GPT가 과연 지속가능한 차세대 AI기술인가? 챗GPT가 빠르게 보급되고 있지만, 그런 의문도 함께 커지고 있다. 본격적인 실용화를 위해선 ‘넘어야 할 산’이 많다는 지적이다.
J.P모건, “해결책 지체, 단명에 끝날 수도”
아직 국내은행들은 움직임이 없지만, 해외 대형은행들은 이미 챗GPT 도입을 위한 본격적인 검토에 나섰다. 또 기존의 글로벌 클라우드 업체(CSP)나 다른 온라인 마케팅 업계 등에서도 이를 도입하기 위한 시도를 하고 있는 것으로 알려졌다. 그러나 그런 잠재력에도 불구하고, 아직은 분석 오류와 정보 유출, 비용, 규제 등 다양한 장애물이 대중화를 가로막고 있다.
최근 J.P모건 분석에 따르면 이는 ▲정보의 신뢰성에서 한계가 있고, ▲고객이나 사용자의 개인정보가 누출될 위험이 크며, ▲도입에 따른 비용 부담도 크다. 특히 최근 미국을 비롯한 일부 주요국 정부가 이에 대한 규제를 검토 내지 도입하고 있는 것도 큰 걸림돌로 지적된다. 이런 문제를 해결하지 못하거나, 해결책이 지체될 경우 또다른 기술에 의해 사장되거나, 단명에 끝날 가능성마저 클 것으로 예상되기도 한다.
버전높인 챗GPT도 오류 투성이
무엇보다 시장성을 방해하는 것은 신뢰할 수 없는 정보다. 최근 버전을 높인 MS의 챗GPT 역시 오류 투성이의 답변을 내놓기 일쑤였다. 또 인터넷 등에 있는 잘못된 정보를 제대로 분간하지 못하며, 상황의 맥락이나, 난해한 문제, 복잡한 전문용어, 개념 등을 이해하지 못하는 경우가 많다. 이에 “챗GPT를 도입할 것을 검토하고 있는 금융계나 테크 기업들은 이같은 허점이 개선되지 않는 한 이를 실용화하지 못할 것”이라는 J.P모건의 예상이다.
‘네이처’(Nature)지도 이에 대해 “챗GPT는 기본적으로 기계학습에 기반하기 때문에 훈련 데이터의 품질이 좋지 않을 경우 드물지 않게 오해의 소지가 있는 정보를 제공하기도 한다.”고 지적했다. 결국은 “어디까지나 데이터 제공자인 인간의 의도나 품성에 의해 곡해될 가능성이 크다”면서 “챗GPT는 자의식을 갖고 있지않기 때문에 정보 선별이나 진실 확인은 인간이 해야 할 몫”이라고 강조하기도 했다.
특히 금융권의 경우는 ‘고객 데이터 보호’ 문제를 많이 거론한다. 국제금융센터는 최그 이에 관한 분석 자료를 통해 “AI는 방대한 데이터 수집을 통해 훈련되기 때문에 개인의 프라이버시 침해에 대한 우려가 내재한다”면서 “특히 개인의 금융정보는 매우 민감하고 기밀성이 큰 만큼 이에 대한 챗GPT 엔지니어 등의 무단 접근과 오용은 자칫 심각한 결과를 초래할 우려가 크다”고 경고했다.
특히 금융권은 개인정보침해, 보안 허점 우려
이에 향후 은행이 챗GPT를 도입할 경우에라도, 챗GPT에 내장된 개인정보 보안 장치만으론 부족하다는 지적이다. 즉, “AI프로세스의 효율성을 유지하면서도, 고객정보 보호에 만전을 기하기 위한 자체 대응 조치도 필요하다”는 지적이다.
실제로 J.P. 모건은 “최근 고객 정보가 외부로 유출될 것을 우려해 내부 정보보호 수칙을 준수한다는 차원에서 직원들의 챗GPT 사용에 대해 일시 단속에 나섰다”고 밝히기도 해 눈길을 끌었다.
이에 따르면 챗GPT가 최근 은행을 사칭하는 피싱 등 악성코드의 작성 요청을 차단하는 등 나름의 보안 기능을 하고는 있다. 그러나 “이를 우회하려는 다양한 시도가 이루어질 가능성도 배제할 수 없다”는 지적이다.
J.P모건은 실제로 최근의 러시아 해커들을 사례로 들었다. 일단의 러시아 해커들이 챗GPT로 침입을 시도하기도 했던 것이다. 현재까지 파악되기론 이들은 응용프로그램 인터페이스API를 통해 인스타그램 등 외부 앱에 챗GPT를 통합함으로써 피싱이나, 멀웨어 등을 생성하는 경로를 탐지한 것으로 알려졌다.
국제금융센터, “기존 시스템 접목에 큰 비용 부담”
도입비용도 큰 부담이 될 전망이다. 국제금융센터는 “챗GPT는 그 기술이 복잡한 만큼 기업이나 금융권의 기존 시스템에 구현하기 위해서는 상당한 컴퓨팅 자원이 필요할 것으로 예상된다.”면서 “그 밖에도 사내 통합, 교육 등 운영비는 물론, 규제비 등 부수적 비용이 추가로 소요될 수 있다는 점도 함께 고려할 필요가 있다”고 했다.
J.P. 모건도 실제 사례를 들어 그런 어려움을 전했다. “전사적 AI 통합에 매년 수억 달러를 지출 중인 기업이나 은행들이 많다”면서 “그와는 반대로 예산이 빠듯한 기업이나 소형 금융회사들의 경우 비용 부담이 커서, 챗GPT의 도입이 쉽지 않을 것”으로 보고 있다.
더욱이 기존의 챗GPT에 고도화된 AI 기능이 추가될수록, 프로그램의 가격 인상이 불가피할수 밖에 없어 은행권의 비용 부담을 가중시킬 것으로 예상했다. 특히 “최근에도 마이크로소프트가 보안 강화와 AI 기능 추가 등을 이유로 구독 요금을 약 10% 인상한 바 있다”고 상기시키기도 했다.
특히 엄격한 규제 하에 있는 금융산업의 경우는 AI 기술에 적용되는 법률이나 윤리표준 등이 자주 변경될 수 있는 만큼 이에 따른 비용 부담도 불가피하다는 지적이다.
미국, EU, 캐나다, 영국, 브라질 등 앞다퉈 규제책
실제로 보안당국을 비롯한 각국 정부의 규제도 날로 강화될 것으로 보인다. 초대형 생성 AI 기술이 발전하고, 그 보급 속도가 빨라지면서 이미 미국과 EU는 2년~3년 전부터 ‘AI 법’ 등 이를 규제하기 위한 다양한 정책을 검토해왔다.
국제금융센터에 따르면 캐나다 역시 ‘AI 법’(DigitalCharterImplementation Act,BillC-27)을 작년 6월 시행했고, EU의경우 올해 3월 AI 법 초안을 공개한 후 2025년 중 발효를 예상하고 있다.
만약 EU의 ‘AI 법’이 원안대로 시행될 경우 챗GPT 등 생성AI의 여건은 매우 어려워진다. 규정을 준수하지 못할 경우는 전세계에서 해당 기업이 올리는 연간 매출의 최대 6%에 해당하는 대규모 벌금을 부과한다는 내용이다.
미국도 작년 10월 ‘백악관과학기술정책국’(OSTP)이 AI 사용 과정에서 발생할 수 있는 부작용을 최소화하기 위한 ‘AI 윤리지침’을 공개하는 등 관련 규제를 강화하고 있다.
영국도 비슷한 조치를 취하고 있다. 역시 지난해 10월 기존 규제의 틀에서 AI 관리 여부와 규제를 검토하고 있다. 또 중앙은행 차원에서 AI규제를 검토하고 있어 귀추가 주목된다.
브라질 등 신흥국에서도 이런 움직임이 보인다. 브라질 의회는 지난 2021년 9월 ‘AI 사용 규칙에 관한 법안’을 통과시키는 등 그 어떤 나라보다 발빠른 움직임을 보이고 있다.
특히 AI 연구에 심혈을 기울이고 있는 중국은 일찌감치 같은 방식으로 생성AI 규제에 나서고 있다. 중국 정부는 지난해 3월 기업의 온라인추천 시스템에서 알고리즘의 사용을 규제하는 ‘AI 규정’을 도입한 바 있다.
이런 현실은 MS나 오픈AI 뿐 아니라, 챗GPT에 맞서 ‘바드’를 개발하고 있는 구글 등도 마찬가지다. 그래서 “이같은 장애물을 누가 어떻게 극복하느냐에 따라 초대형 생성AI 시장의 최후 승자가 될 것”이란 전망이다.
