글로벌 보안업계 경고, “수 년 내 AI에이전트 ‘자율 공격’ 등장”
멀버타이징 등으로 악성 ‘AI 에이전트’ 배포, AI 스스로 엔드투엔드 공격
24시간 네트워크 취약성 식별, 시스템 인벤토리, 패치 확인 등 긍정 측면도

‘국제사이버보안 엑스포 2024’에 출품한 업체로서 본문과는 직접 관련이 없음. (사진=애플경제)
‘국제사이버보안 엑스포 2024’에 출품한 업체로서 본문과는 직접 관련이 없음. (사진=애플경제)

[애플경제 이윤순 기자] 본격적인 AI에이전트 혹은 에이전트 AI 시대가 펼쳐지고 있다. 종전의 단순 자동화 수준이던 ‘AI 비서’가 아닌, 생성AI 기반의 상호작용으로 인간을 보조하는 지능형 AI도구로 각광받고 있다. 그러나 최근 또 다른 측면에서 이는 사이버 보안에 축복이자 저주가 될 수 있다는 지적도 있어 눈길을 끈다.

특히 해커들은 에이전트 AI 시스템을 악용해, 더욱 치명적인 공격을 퍼부을 수 있다는 우려도 나오고 있다. 아직은 드물지만, 수 년 내로 이런 현상이 본격적으로 나타날 것으로 보여 미리 대책을 마련하는게 시급하다는 지적이다.

“자칫 사이버범죄 수법의 혁명 유발”

실제로 멀웨어바이츠나 벡트라AI 등 유명 사이버보안업체들이 최근 이에 관한 연구를 한 결과도 이런 우려를 뒷받침하고 있다. 이들 연구에 따르면 에이전트 AI 시스템은 자칫 “사이버 범죄 수법에 혁명을 일으킬 것”이란 얘기까지 나오고 있다.

멀웨어바이츠는 “AI 기반 랜섬웨어 공격에 대비해야 하는 것은 물론, 특히 추론이나 계획과 판단, 그리고 AI도구를 자율적으로 사용할 수 있는 악의적인 AI 에이전트가 초래하는 위협은 치명적일 것”이라고 경고했다.

이에 따름녀 그나마 지금까지는 생성AI 도구가 사이버 범죄에 미치는 영향은 제한적이었다. 해커들이 이를 공격적으로 사용할 수는 없었기 때문이다. 물론 생성 AI를 활용해서도 피싱 콘텐츠를 생성하거나, 제한된 범위의 익스플로잇(공격 수법)을 생성하는 데 사용된 주목할 만한 사례가 있긴 하다. 그러나 이런 경우들도 주로 공격의 효울성을 높이는게 목적이다. 새로운 기능을 도입하거나 해커가 사용하는 기본 전략을 변경하는 것은 아니란 얘기다.

멀웨어바이츠는 “그러나 이 모든 것이 2025년에는 바뀔 수 있다”고 했다. 에이전트 AI는 아예 해커가 공격의 수법과 효율성을 강화할 뿐만 아니라, 피해자를 공격하는 방법을 치밀하게 추론하고 기획하며 계획과 전략을 세우는데 큰 도움이 될 수 있다는 우려다.

특히 “그 동안 숱한 사이버범죄로 방대한 자금력을 확보하고 있는 랜섬웨어 갱단들이 AI 에이전트를 사용, 동시에 여러 대상을 공격하는 상황이 펼쳐질 수도 있다”는 것이다.

방대한 자금 지닌 랜섬웨어 집단, 이미 연구 중

악성 AI 에이전트는 취약한 대상을 찾아내 공격하고, 네트워크에 침투 손상시키도록 한다. 또 광고를 가장한 ‘멀버타이징’ 수법을 감행, 미세 조정하거나 피해자에게 큰 피해를 안길 수도 있다.

그렇다고 에이전트 AI가 마냥 사이버 공격용으로만 사용되는 것은 아니다. 반대로 이를 활용해 각종 해킹을 막아낼 수도 있다. 그야말로 약도 되고 독도 되는 셈이다. 에이전트 AI는 특히 중소기업 등 사이버보안 역량이 취약한 기업들에겐 큰 도움이 될 수도 있다. 즉, “AI에이전트를 활용하면 보안 팀은 최소한의 감독만 하고, 나머지 치밀한 보안 업무와 복잡한 작업은 인공지능에게 맡길 수도 있다”는 것이다.

그럴 경우 AI에이전트가 공급망의 취약성을 살피고, 인터넷에 연결된 시스템의 인벤토리를 유지하며, 패치가 적용되었는지 확인하곤 한다. 인간 작업자와는 달리, 밤새 네트워크를 모니터링하고 엔드포인트에서 발생하는 의심스러운 징후, 즉 EDR(Endpoint Detection and Response) 경고에 대응할 수도 있다.

‘국제사이버보안 엑스포 2024’에 출품한 업체로서 본문과는 직접 관련이 없음. (사진=애플경제)
‘국제사이버보안 엑스포 2024’에 출품한 업체로서 본문과는 직접 관련이 없음. (사진=애플경제)

실제로 업계 일각에선 자율적인 AI 보안 에이전트가 출시되어, 기존 방식보다 20배나 더 빠르게 보안 경고를 처리할 수 있고, 실제 사이버위협을 찾아내는 정확도가 30% 더 높아졌다는 연구 결과도 전해지고 있다.

AI 보안 전문 기업인 벡트라AI는 “당장은 해커들도 AI툴을 개선하고 (공격용으로) 최적화하는 데 집중할 것”이라고 했다. 아직은 생성 AI를 사용해 공격 대상을 물색하고, 대규모로 스피어 피싱 공격을 수행하기 직전이란 얘기다. 다만 이들 역시 사이버공격을 위해 준비해야 할 지루하고 반복적인 작업에 소요되는 시간을 절약하는 수단으로 생성 AI를 점점 더 많이 사용하고 있다.

역으로 자율적인 AI보안 에이전트 등 대책 필요

그러나 가까운 시일에 “해커들도 LLM을 사용해 AI 스스로 엔드투엔드 자율 공격을 수행할 수 있는 자체적인 악성 ‘AI 에이전트’를 배포하는 방법을 실험하기 시작할 것”이라고 내다봤다. 그러면 우선 백그라운드에서부터 사이버공격 징후가 나타날 것으로 본다.

그러나 이들 사이버보안업체들은 해커들이 실제로 AI 에이전트로 해킹의 주요 도구로 활용하기까진 아직 수 년은 걸릴 것으로 예상하고 있다. 제대로 된 공격 도구로 쓰이기 위해선 상당한 양의 미세 조정과 부수적인 문제 해결이 필요하기 때문이란 분석이다.

그럼에도 불구하고 “해커들의 세계에선 이미 AI에이전트를 실험하는 단계에 있으며, 인간의 개입 없이 완전한 공격을 수행할 수 있는 범위를 테스트하고 있다”고 경고하고 있다. 이러한 유형의 에이전트가 안정적으로 배치되면, 비로소 본격적인 해킹에 나설 것이란 예측이다. 다만 이런 자율 에이전트는 오류가 발생하기 쉽기 때문에 여전히 해커들이 100% 신뢰는 하지 않고 있다.

멀웨어바이츠는 “그러나 가까운 미래에 해커들은 분명 다양한 공격 수법을 구사하기 위해 생성AI 에이전트를 만들 것으로 예상된다”면서 “공격 대상에 대한 연구와 정찰, 민감한 데이터 식별과 수집 등에 걸쳐 해커들이 개입할 필요없이 해당 데이터를 자율적으로 추출하는 것까지 AI에이전트에 맡길 것”이라고 경고했다.

저작권자 © 애플경제 무단전재 및 재배포 금지