이메일 침투…맬웨어 생성, 코딩, 익스플로잇 개발 등 도구 판매
텔레그램을 통해 손쉽게 액세스, “복잡한 탈옥 프롬프트, 오프소스 모델 불필요”
[애플경제 전윤미 기자] 최근 사이버공간에서 ‘고스트 GPT(GhostGPT)’가 활개를 치고 있다. 범죄자들이 GPT를 악용, 맬웨어를 생성, 사기 수법으로 적극 활용하고 있는 것이다. 그 수법이 마치 유령처럼 암약한다고 해서 ‘고스트’란 명칭이 붙었다.
2년 전부터 출몰, 최근 극성
이를 밝혀낸 보안업체 애브노말 시크리티(Abnormal Security)에 따르면 이는 벌써 출몰한지 2년이나 된 것으로 알려져 더욱 경각심을 일깨우고 있다. 이를 공개한 ‘애브노말’은 사이버 범죄 포럼에 잠입, 악성 챗봇 광고를 모니터링하며, 유명한 전자서명업체 ‘도큐사인’(DocuSign)를 대상으로 한 피싱 이메일을 만들도록 유도, 그 정체를 파헤친 것으로 알려졌다. 최근 가장 극성을 부리고 있는 고스트GPT로는 WormGPT, WolfGPT, EscapeGPT, FraudGPT, DarkBard, Dark Gemini 등이 알려져있다.
이에 따르면 고스트GPT는 맬웨어, 기업 이메일 침해 등 사기와 불법 활동을 위한 다양한 자료를 생성한다. 특히 이는 “오픈AI의 챗GPT나, 다른 대규모 언어 모델의 ‘탈옥’된 버전에 연결할 가능성이 높다”는 설명이다. 보통 탈옥된 챗봇은 범죄자들에게 더 유용하다는 것을 증명하기 위해 흔히 “보안 장치를 무시하라”는 지시를 받곤 한다.
사이버 범죄 포럼에 게시된 고스트GPT 광고엔 그 배경에 후드를 쓴 인물의 이미지를 깔아놓기도 한다. 또한 빠른 처리 속도를 과시하며, 시간이 촉박한 해킹에 유용하다. 랜섬웨어 공격자는 보안장치와 방어시스템이 강화되기 전에 대상 시스템 내에서 더욱 신속하게 ‘한탕’을 하고 빠져나와야 하기 때문이다.
또한 “사용자 활동이 고스트GPT엔 기록되지 않으며 암호화된 메신저 앱인 텔레그램을 통해 구매할 수 있다”고 함으로써 철저히 신상을 감추고자 하는 범죄자들의 입맛에 딱 들어맞는 셈이다. 또한 이 챗봇을 텔레그램 내에서도 사용할 수 있으므로 사용자 기기에 의심스러운 소프트웨어를 다운로드할 필요도 없다.
텔레그램을 통해 액세스할 수 있으므로 시간도 절약된다. 해커들은 복잡한 탈옥 프롬프트를 만들거나 오픈소스 모델을 설정할 필요도 없다. 그저 액세스 비용만 지불하면 바로 시작할 수 있다.
합법 가장한 ‘사이버보안’ 도구 자칭, 마케팅
애브노말은 “고스트GPT는 기본적으로 코딩, 맬웨어 생성, 익스플로잇 개발을 포함한 다양한 악성 활동을 위한 마케팅을 펼치고 있다”면서 “더욱이 ‘이메일 사기 등을 방지하기 위한’것이라며 나름의 설득력 있는 이메일을 작성하는데 사용되는 등 사이버 범죄의 편리한 도구가 되고 있다.”고 밝혔다.
이들은 또 고스트GPT 광고에서 합법을 가장한 교묘한 수법도 쓴다. 즉, 광고 문구에 ‘사이버 보안’ 용도임을 언급하면서, 범죄를 막는다는 식의 광고를 하기도 한다. “전적으로 법적 책임을 회피하려는 악랄한 시도”라는 지적이다.
그럼에도 해당 광고는 수천 건의 조회수를 기록했다. 그 만큼 고스트GPT가 널리 확산되고 있음을 보여주는 것이다. 또한 사이버 범죄자들의 ‘탈옥된 LLM’에 대한 관심이 커지고 있음을 나타내는 것이기도 하다.
이처럼 AI가 생성한 피싱 메일 등은 인간이 작성한 것보다 더 빠르게 생성 및 배포될 수 있다. 별다른 기술 지식이 없어도, 신용카드가 있는 거의 모든 사람이 할 수 있다. 또한 피싱 공격에만 사용할 수 있는 것이 아니다. “GPT-4가 필요한 도구만 제공되면, ‘1일’ 취약점의 87%를 자의적으로 악용할 수 있다”는 것이다.
이처럼 악의적인 용도의 비공개 GPT 모델은 꾸준히 출현하고 있다. 지난해 4월에도 보안 회사 래드웨어(Radware)에 따르면 당시 사이버 보안 환경에 가장 큰 영향을 미친 AI 중 하나로 GPT가 꼽혔다. 악성 비공개 GPT는 또 월 수백 달러에서 수천 달러의 요금으로 공급되고 있어 더욱 이를 전문으로 하는 업자들이 활개를 치고 있다.
기존 LLM모델 탈옥도 순식간에 유도
“더욱이 기존 LLM모델 역시 탈옥하는 것도 그렇게 어렵지 않은데다, 이를 이용한 공격의 20%가 성공적이다. 평균 대상을 돌파하는 데 42초 간 5번의 시도만 하면 충분하다”는 체험담도 있을 정도다.
지난 2023년 8월에만 해도 보안업계에선 프로드GPT(FraudGPT)의 경우 그 구독자가 몇 명 정도에 불과할 만큼 초기 단계였다. 그러나 최근에 와선 세계경제포럼(WEF)이 ‘FraudGPT’에 대해 이에 대한 구체적이고 국제적인 대응책을 촉구할 정도로 광범위하게 확산되었다.
많은 사이버범죄자들이 이미 사이버 공격에 이같은 AI 기반 기술을 사용하고 있다. 보안 회사 바이퍼(Vipre)가 지난해 2분기에 적발해낸 비즈니스 이메일 침해(BEC)는 2023년 같은 기간보다 20%나 더 많았고, 그 중 5분의 2가 AI에서 생성되었다. 지난해 6월 HP도 “생성AI의 도움으로 작성되었을 가능성이 매우 높은 스크립트의 맬웨어를 퍼뜨리는 이메일 캠페인을 가로챘다”고 밝히기도 했다.
또 다른 전문가들은 “앞으로 에이전트 AI 서비스가 보편화될 경우 이런 AI기반 공격은 더욱 가속화될 것”이라고 내다보기도 한다.
