2024년 주요 사이버 위협 중 하나 LLM 보안 꼽혀
LLM 보안 취약점은 모델 도난, 무단 복제, 프롬프트 인젝션 등

생성형 AI의 대표적인 사례 ChatGPT (사진=픽사베이)
생성형 AI의 대표적인 사례 ChatGPT (사진=픽사베이)

[애플경제 정한빈 기자]

생성형 AI를 활용해 민원 이메일을 답변하거나 학술 논문 작성시 생성형 AI의 도움을 받는 등 일상생활에서 생성형 AI의 역할이 점차 확대되면서 보안 위협도 심화되고 있다. 생성형 AI의 핵심기술인 거대언어모델(LLM)은 데이터 기반 학습과 예측을 통해 텍스트를 생성하며 업무 자동화, 창작, 번역 등 다양한 분야에서 사용되고 있다. 그러나 악의적인 이용사례와 보안 취약점이 드러나면서 그 위험성이 부각되고 있다.

LLM은 데이터 입출력 집합을 바탕으로 학습된 머신러닝 신경망 기술이다. 입력된 정보를 처리한 후 다음 단어를 예측해 텍스트를 생성하는 방식으로 작동한다.

보안업체 S2W가 지난 4일 발표한 ‘2024년 결산 보고서’는 2024년에 발생한 주요 사이버 위협과 2025년에 주목해야할 사이버 위협 중 하나로 LLM 보안을 언급했다. 보고서에 따르면 올해 2월 중국의 Chacoal Typhoon, 북한의 Emerald Sleet, 러시아의 Forest Blizzard 등 국가 지원을 받는 위협 그룹들이 OpenAI를 악용하려는 시도가 발견됐다. 이들 그룹은 공개 소스 정보를 수집하거나 피싱 캠페인을 위한 콘텐츠 작성, 악성코드 디버깅 및 번역 등 다양한 목적으로 LLM을 활용했다. 

또한 지난 8월에는 LLM 서버의 민감 데이터가 노출되는 사고가 발생했다. 데이터베이스와 서버 관리 허점으로 API키, GitHub 액세스 토큰, 플레인텍스트로 저장된 비밀번호 등 기업과 개인의 중요한 정보가 유출됐다. 이는 LLM의 활용이 기술적 편의성을 주지만 심각한 보안 문제를 동반할 수 있음을 경고한다. 

LLM 보안의 취약점 중 하나는 모델 도난 및 무단 복제다. LLM은 고도화된 학습 알고리즘과 방대한 데이터로 구성돼 독점 기술로 간주된다. 그러나 APT(Advanced Persistent Threat) 공격을 통해 모델 가중치와 파라미터를 추출하고 이를 기반으로 유사한 모델을 제작하는 사례가 발생하고 있다. 이는 기업의 지적 재산권을 침해하고 경쟁 업체의 기술적 우위를 지원하는 결과로 이어질 수 있다.

또 다른 위협으로는 프롬프트 인젝션이 있다. 공격자가 정교하게 조작된 프롬프트를 입력하면 LLM이 공격자의 의도대로 작동하게 된다. 특히 LLM이 외부 파일이나 웹사이트와 연결된 경우 공격자가 소스를 제어하기 쉽기 때문에 이러한 공격은 더욱 심각한 결과를 초래한다.

이외에도 공급망이 취약한 것과 민감한 개인정보의 유출도 문제로 꼽히고 있다.

LLM을 도입할 때는 보안성을 철저히 검토하고 민감 데이터 노출을 방지하기 위한 인증절차를 구축해야한다. 아울러 LLM 제공업체와 사용자들은 위협 인텔리전스를 통한 모니터링을 강화해 악의적인 시도를 사전에 차단하고 AI 기반 보안 위협에 대응하는 체계를 지속적으로 발전시켜야한다.

생성형 AI 기술은 편리함을 제공함과 동시에 정보 유출이라는 양면성을 가진다. 활용 범위가 확대될수록 악용 사례와 보안 위협 역시 함께 증가한다. 따라서 기업과 개인은 LLM의 편의성을 누리기 위해서는 그에 따른 보안 리스크를 인지하고 대비해야 한다. 

저작권자 © 애플경제 무단전재 및 재배포 금지