챗GPT 변종…‘FraudGPT’, ‘WormGPT’, ‘BlackHatGPT’, ‘XXXGPT’ 등
‘Hackbot as a Service’(HaaS)도 기승, “인간해커와 똑같은 성공률 과시”

해킹봇 이미지. (사진=게티 이미지)
해킹봇 이미지. (사진=게티 이미지)

[애플경제 이윤순 기자] 이젠 사이버공격 수법이 해킹봇과 ‘서비스 모델로서의 해킹봇’(HaaS)으로 진화하고 있다. 사이버 범죄자들은 이처럼 악성LLM 기반의 해킹봇과 함께 계열사가 HaaS를 구독, 맞춤형 공격을 시도하도록 부추기고 있다. 이미 ‘FraudGPT’이나, ‘WormGPT’, ‘BlackHatGPT’, ‘XXXGPT’, ‘WolfGPT’ 등과 같은 악성LLM들이 줄지어 암약하고 있다.

영국 국립사이버보안센터(NCSC) 등에 따르면 해커들은 이미 악성 LLM으로 더욱 교묘한 사회 공학적 공격을 하거나, 공격 대상 업체 임원의 어조와 스타일을 모방하며, 신원 시스템을 우회하기 위해 딥페이크 공격을 동원하기도 한다. 마이크로소프트 관계자는 “AI가 이미 비밀번호를 해독하는 데 사용되고 있으며, 이 기술 때문에 신원 기반 공격이 10배나 증가했다”고 경고했다.

특히 맞춤형 악성 코드 변종을 만드는 데 챗봇을 사용할 수 있다. 챗GPT나 제미니 등엔 악의적인 콘텐츠 생성을 방지하기 위한 블랙햇 방지 가드레일이 내장되어 있다. 하지만 최근 연구에 따르면 특별히 설계된 맞춤형 악성 챗봇이 이를 무력하게 하는 경우도 적지 않다.

HaaS, 다크웹 마켓플레이스 등서 광고

이런 HaaS는 다크 웹의 마켓플레이스 및 포럼을 통해 광고되기도 한다. 해커들이 이를 임대, 서비스 모델로 맞춤형 해킹봇을 생성할 수도 있다. IT프로에 따르면 사이버 보안업체인 ‘Trustwave SpiderLabs’는 최근 블로그를 통해 이러한 악성 LLM 중 하나인 WormGPT를 설명하기도 했다. 이는 지난 2021년 6월 다크 웹에서 호스팅되는 인기 해킹 플랫폼에서 처음으로 발견되었다. 또 다른 하나는 ‘FraudGPT’도 있다. 이는 처음 발견된 후 2023년 7월 텔레그램을 통해 널리 유포되었다.

이들 모두 해커가 피싱 이메일이나, 딥페이크, 음성 복제 등과 같은 사회 공학적 공격에 이용된다. 특정 취약점과 관련된 코드를 이런 악성 모델을 통해 제공할 수 있으며, 해커가 시도할 수 있는 다양한 PoC(개념 증명) 익스플로잇을 생성하게 한다.

클라우드 서비스 업체인 ‘M247’은 “최근 이러한 유형의 해킹 도구가 급증하고 있다”고 IT프로에 밝혔다. 그는 “‘FraudGPT’, ‘WormGPT’ 등은 다른 생성 AI 챗봇과 유사한 동일한 사용자 친화적인 프롬프트를 사용한다”면서 “이는 다크 웹에 넘쳐나고 있으며, 해커가 이로써 맬웨어, 악성 코드, 피싱 이메일을 생성해 데이터를 훔치고 피해를 입힐 수 있다”고 밝혔다.

‘FraudGPT’ 등 “그럴듯한 이메일․문서 능력 탁월”

특히 ‘FraudGPT’ 등의 가장 큰 장점 중 하나는 비즈니스 시스템에 액세스하기 위해 설득력 있는 이메일과 문서를 생성하는 능력이다. 이는 해킹봇을 사용하기 위해 매월 구독하는 다크 웹을 통해 구할 수 있다. 이는 그런 의미에서 현재 사이버공격의 원흉인 ‘RaaS’ 모델과 유사하다. ‘WormGPT’가 출시된 이후 이를 본딴 악성 LLM들이 줄을 잇고있다. ‘BlackHatGPT’, ‘XXXGPT’, ‘WolfGPT’ 등이 그런 경우다. 그렇다보니 최근엔 악성 LLM들이 새로운 대규모 사이버 암시장을 형성하고 있다.

‘Trustwave’의 실험 결과 챗GPT는 프롬프트를 통해 이런 악성 LLM을 생성할 수 있는 것으로 나타났다. 다만 사용자는 먼저 “코드가 화이트햇(선의의) 목적으로 사용될 것”이라고 강조해야 했으며, 배포되기 전에 출력 코드를 추가로 조정해야 했다. 또 챗GPT에는 사용자에게 “이 스크립트를 책임감 있게 사용할 것”을 촉구하는 면책 조항이 포함되어 있다.

비슷한 방식으로 챗GPT는 피싱에 사용할 수 있는 매우 현실적인 교환을 생성할 수도 있지만 이러한 출력을 생성하기 위해선 프롬프트가 매우 구체적이어야 했다. 대부분의 경우 챗GPT는 악의적인 프롬프트에 대한 출력을 거부한다.

그러나 악성 LLM 기반의 해킹봇은 사이버 범죄자가 굳이 챗GPT 인스턴스를 탈옥하거나, 필요한 피싱 페이지나 악성 코드를 제작하려 애쓸 필요가 없게 한다. WormGPT에 포함된 Python 코드처럼 공격에 AI를 사용할 수 있는 더 쉬운 경로를 제공하고 있다. 이는 간단한 맬웨어 코드, 피싱 계획 등 해커가 AI 보조 없이 해낼 수 있는 작업을 생성할 수 있다.

챗GPT-2 이미지로 본문과 직접 관련은 없음. (사진=어도비 스톡)
챗GPT-2 이미지로 본문과 직접 관련은 없음. (사진=어도비 스톡)

‘해킹봇’, 초보 범죄자도 AI로 손쉽게 해킹 가능

이들 해킹봇은 해커들이 효과적 공격을 펴는데 필요한 시간과 노력을 크게 줄일 수 있다. 해킹봇 출력을 기반으로 한 공격이 인간 해커의 공격과 성공률이 같다는 분석이다. 이에 해킹봇은 범죄자들 간의 경쟁이 날로 치열해지는 사이버범죄 세계에서 해커들에게 매력적인 수단이 아닐 수 없다. 그래서 “특히 디지털 활용 능력이 미흡한 해커들일수록 HaaS로서의 해킹봇이 사이버 범죄세계에 한층 손쉽게 진입할 수 있게 한다”고 우려하고 있다.

또한 “숙련된 해커가 악의적인 LLM과 결합될 때 그 폐해는 엄청날 것”이란 얘기다. 최근 이같은 악성 LLM 개발을 위한 기계 학습(ML)이나 AI 관련 엔지니어를 찾는 러시아 해킹 그룹의 ‘구인광고’가 온라인을 통해 배포되는 등 우려를 더하고 있다.

특히 xGPT가 WormGPT 또는 다른 챗GPT 변종보다 훨씬 더 심각한 위협이 되고 있다는게 전문가들의 판단이다. 이에 따르면 xGPT는 미국 정부 기관이나, 은행, 모바일 네트워크, 기타 피해자들에게 자격 증명과 액세스 권한을 판매한 것으로 알려진 해커다. 또 기존 LLM에 연결하기만 하는 것이 아니라, 자체 솔루션을 개발하고 있다.

이에 “기업이나 조직은 현재 시행 중인 보안 조치의 적절성을 다시금 신중하게 재평가해야 한다”면서 “악성LLM 위협에 대응하기 위해선 강력한 AI 보안 시스템이 더욱 필요할 수 있으며, ID 관리 도구와 같은 제어 기능은 맞춤형 사회 공학 시도에 맞서는 데 도움이 될 것”이라는 조언이다.

저작권자 © 애플경제 무단전재 및 재배포 금지