사이버보안 측면 ‘양날의 검’, ‘묻지마 투자’ 보단 투자수익 평가 본격화
‘애플경제’ 분석, ‘데이터센터 비용 부담, 환경문제 유발’ 등도 논란
“‘AI 에이전트’의 정확한 역할, 정의 부재도 문제
[애플경제 김홍기 기자] AI 에이전트가 특히 2025년부터 활발하게 대중화되는 가운데, AI는 사이버보안 측면에서 ‘양날의 검’이 될 전망이다. 그런 가운데 AI에 대해 당장의 수익보다는 투자에 주력해온 기업들이 이젠 투자수익을 본격적으로 따질 것으로 보인다. 국내외 전문가들와 글로벌 매체들은 이 밖에도 AI가 과학 연구에 큰 영향을 미칠 것이라거나, AI로 만든 도구들이 에너지 비용을 크게 절감하진 못할 것이란 예측도 내놓고 있다.
특히 <애플경제>가 이들 전문가들의 견해와 기술매체를 분석하고, 세계전기전자공학자협회(IEED)의 조사 결과 등을 반영하면 생성AI야말로 2025년의 대표적인 기술이라는 의견이 지배젹이었다.
‘AI 코파일럿’에서 진화한 ‘AI 에이전트’
각종 연구와 관측에 따르면, 특히 ‘AI 에이전트’가 2025년에 더욱 급증할 것으로 보인다. 이는 비정형 또는 비구조화된 환경에서 명령을 수행하기 위해 애플리케이션을 연결하거나, 애플리케이션과 상호 작용할 수 있는 반(半)자율적 생성 AI다. 그럼에도 AI 에이전트에 대한 정의는 확실하게 규정된 바는 없다. 다만 IBM은 이를 ‘오픈AI o1’과 같이 “복잡한 문제를 추론할 수 있는 AI”로 정의한다. 그러나 AI 에이전트를 활용한 모든 제품이 이같은 ‘추론’ 기능에 의한 것이라고 규정할 수 있는 것도 아니다.
어찌됐든 그 정의에 관계없이 AI 에이전트는 2025년 생성 AI 마케팅의 ‘최전선’에 설 가능성이 크다. 이는 2024년의 ‘AI 코파일럿’에서 진화한 차세대 기술이라고 할 수 있다. 즉 “인간이 다른 작업을 처리하는 동안 여러 단계의 작업을 독립적으로 처리하는 데 시간을 할애할 수 있다”는 설명이다.
AI는 그러나 사이버보안의 도구가 될 수도, 위협이 될 수도 있다. 사이버 보안 공격자와 방어자 모두가 AI를 계속 활용할 것으로 보인다. 2024년에는 이미 생성 AI 기반의 보안 장치가 급증했다. 이는 코드를 작성하고, 위협을 탐지하고, 까다로운 질문에 답하거나, 브레인스토밍을 촉발할 수 있다.
하지만 생성 AI는 부정확한 정보를 제공할 수도 있다. 이에 많은 시간을 들여 출력을 꼼꼼히 확인하지 않으면, 자칫 코드가 손상되고 보안 문제가 심화될 수도 있다.
반면에 챗GPT나 구글 제미니 등 AI 도구가 활성화됨에 따라 인 정보 보호 문제와 함께 우발적인 데이터 노출 위험이 급증하고 있다는 전문가들의 지적이 많다. 특히 생성 AI 모델은 다른 소프트웨어와 마찬가지로 악의적인 행위자의 공격에 취약할 수도 있다. 특히 최근 급증하는 ‘탈옥 공격’이 문게가 될 수 있다.
또한 사이버 범죄 도구로 AI가 날로 악용되고 있다. 특히 앞으로 피싱 공격은 감지하기 더 어려워질 것으로 보인다. 또한 AI는 (사이버공격 수법을) 지속적으로 학습하고 적응할 것이란 우려도 크다.
기업들, 생성AI가 성과없을땐 ‘폐기’할 수도
많은 기업들은 이제 AI가 얼마나 투자수익을 창출하는지를 본격적으로 평가하기 시작한다. 그러나 생성 AI가 가치를 창출하는지, 어떤 목적으로 사용될 때 가장 큰 성과를 만들 수 있는지 판단하는게 쉽지 않다. 생성 AI 사용의 이점을 정량화하고, 그 근거가 어떤 것인지, 무엇과 비교해야 하는지도 애매하다.
이로 인해 경영진들은 생성 AI가 각종 애플리케이션의 가치를 실제로 높이는지에 관심을 가질 수 밖에 없다. 만약 AI가 비용이 많이 들 뿐, 뚜렷한 성과를 제공하지 못할 이를 폐기할 수도 있다.
현대 AI기술은 과학 분야에서 큰 진전을 이루게 하는 원동력이 되었다. 실제로 2024년 노벨상 수상자 중 4명이 AI를 사용했다. 구글 딥마인드의 데미스 하사비스와 존 점퍼는 ‘AlphaFold2’로 단백질 구조를 예측한 공로로 노벨 화학상을 수상했다. 존 홉필드와 조프리 힌튼은 수십 년에 걸쳐 신경망을 개발한 공로로 노벨 물리학상을 수상했다.
미국은 최근 생명 과학 분야에서 AI를 사용하는 기술을 주제로 정상회담을 열었다. 이를 통해 AI가 어떻게 복잡한 과제를 해결할 수 있는지를 규명하고 있다.
에너지 효율성은 AI의 또 다른 숙제가 되고 있다. 생성 AI를 실행하는 데 필요한 데이터 센터를 구축하는 데 드는 비용이 또 다른 이슈로 떠올랐다. 이는 엄청난 양의 전기와 물이 필요하며, 지구 온도 상승을 유발하는 등 문제를 심화시키고 있다. 현재로선 생성AI를 통해 이런 문제를 해결할 가능성은 낮다는게 전문가들의 전망이다.
그러나 기업들 중엔 점차 AI를 기반으로 에너지 절감과 환경 친화적인 시스템을 도모하는 사례가 등장할 것이란 기대도 있다.
