‘바이브 코딩’ 편하지만…자칫 ‘슬롭스쿼팅’에 낭패
AI 코딩 도구 ‘환각’ 악용, 개발자 속여 악성 패키지 설치 유도 ‘PyPI’ 등 공개 저장소에 악성 패키지 게시, “타이포스커팅의 변종” 중요한 코드 대규모 생성 ‘바이브 코딩’ 악용, 피해자 대거 양산
[애플경제 엄정원 기자] 바이브코딩이 대중화되고 있다. 그러나 ‘호사다마’라고 할까. AI 코딩 도구의 ‘환각’을 악용해 악성 패키지를 심는 ‘슬롭스쿼팅’(Slopsquatting)이 최근 바이브 코딩 과정에서 새로운 사이버위험 요소로 등장하고 있다.
최근 개발자 사이트 ‘디벨로퍼 인사이더’, ‘사이버 시큐리티 인사이더’ 등 보안매체에 의하면 이는 해커가 AI 코딩 도구가 흔히 빠지기 쉬운 ‘AI 환각’을 악용, 개발자를 속여 실수로 악성 패키지를 설치하도록 하는 공격 수법이다. 그렇다보니 공개 코드 저장소의 악성 패키지가 AI 도구를 통해 진짜처럼 위장할 수도 있다는 우려다.
AI 코딩 도구는 개발자와 소프트웨어 엔지니어에게 시간을 절약해 손쉽게 코딩을 할 수 있는 유용한 수단이다. 그러나 ‘슬롭스쿼팅’이라는 새로운 공격 벡터가 큰 위협으로 다가온 것이다. 이는 악성 코드나 각종 위협 요소를 유입하는 통로가 된다.
국내 보안업체 I사의 한 관계자는 “간단히 말해, 해커는 AI 코딩 도구가 ‘환각’으로 존재하지도 않는 패키지가 실제로 있는 양 착각하는 것을 악용한다.”며 “이를 통해 ‘PyPI’와 같은 공개 저장소에 악성 패키지를 게시하는 수법”이라고 소개했다.
그는 “전해듣기론 파이썬과 자바 환경에서 문제가 되었던 타이포스쿼팅의 변종으로 알고 있다.”면서 “이미 해외에선 겉보기엔 정상적인 것으로 보이는 악성 패키지로 인해 AI 코드 소비자들이 피해를 입는 사례가 속속 보고되고 있다”고 주의를 당부했다.
‘정상’ 가장 악성 패키지로 AI코드 소비자 피해 많아
해외 보안업체 ‘체인가드’(Chainguard)도 이같은 설명을 뒷받침하는 자세한 정보를 공개하고 있다. 이 회사 역시 ‘아이티프로’ 등에 “‘슬롭스쿼팅’이란 용어는 ‘타이포스쿼팅’과 ‘AI 슬롭’(AI 오물, 찌꺼기)을 합친 용어”라며 “AI로 대충 생성된 콘텐츠를 경멸하며 부르는 호칭”이라고 했다.
이처럼 ‘슬롭스쿼팅’은 ‘타이포스쿼팅’의 변형이다. 예를 들어 간단한 URL을 입력하면서, 실수로 ‘Google’이란 단어에서 한 글자라도 빼먹으면 악성 사이트로 연결되는 식이다. 이런 문제가 지난 수 년 간 발생해 왔다.
타이포스쿼팅은 지난 10여 년 간 파이썬과 자바 환경에서 사이버공격의 수단이 되어왔다. 파이썬과 자바 환경에서는 PIP 파이썬과 PIP 설치 프로그램을 통해 (악성) 파이썬 패키지를 등록하는 것이 매우 쉽기 때문이다. 더욱이 “그런 공격 수법을 AI에 이식하는 건 너무나 위험한 결과를 초래할 수 있다”는 지적이다.
특히 개발자들은 SW개발 등을 위해 중요한 코드를 대규모로 생성하기 위해 바이브 코딩을 사용하는 경우가 날로 늘어나고 있다. ‘슬롭스쿼팅’은 이런 바이브 코딩의 편리함을 악용하는 만큼 더욱 위협적일 수 밖에 없다.
오픈소스 환경에선 그 위험이 더욱 크다. 앞서 ‘체인가드’는 “그런 환경에서 전통적인 ‘인간 코더’의 경우는 모든 코드 줄을 사람이 직접 관리하고 검토하며 승인하곤 했다.”면서 “그러나 이제 AI가 말 그대로 기가바이트 단위나, 수백만 내지 수십억 줄의 코드를 생성할 수 있게 되면서, 가장 숙련된 유지 관리자조차도 종래처럼 관리, 검토를 도저히 수행할 수 없게 되었다.”고 현실적 한계를 지적했다.
‘슬롭스쿼팅’은 이런 현실의 허점을 악용, 검증이 허술한 코딩 시스템에 한층 용이하게 침투할 수 있다는 것이다.
물론 이에 대한 대책도 있다. AI 에이전트가 서로(또 다른 에이전트)를 감시할 수도 있고, 지정된 에이전트가 사전 정의된 알고리즘으로 검증할 수도 있다. 실제로 최근 AI에이전트는 슬롭스쿼팅이나 타이포스쿼팅 등 다양한 사이버공격의 징후를 식별하도록 학습, 훈련하는 경우가 대부분이다.
“신뢰할 만한 AI개발 도구 명확하게 제시, 운영해야”
한편 글로벌 보안 사이트 ‘사이버레디’ 역시 이같은 AI 코딩 도구를 악용한 사례를 담은 ‘2026 엔지니어링 현실 보고서’를 인사이트를 통해 공개했다. 이는 미국, 영국, 프랑스, 독일 전역의 소프트웨어 엔지니어와 고위 기술 리더 1,200명을 조사한 것이다.
이는 엔지니어링 워크플로우에서 AI 도구를 사용해 전면 또는 부분적 자동화하는 것에 대한 반응을 물어본 것이다.
그 결과 응답자의 3분의 2 이상이 “테스트, 모니터링 및 품질 보증이 AI도구로 자동화되었다”고 답했다. ‘보안 패치 및 취약성 해결’의 AI 자동화나, AI코드 검토 등도 비슷한 수치를 보였다..
그러나 정작 눈길을 끄는 것은 소프트웨어 엔지니어들이 AI 도입을 경계하는 핵심적인 이유를 강조한 대목이다. 가장 큰 우려 사항은 ‘AI와 관련된 보안 및 개인정보 보호 부족’이다. 또한 ‘코드에 대한 책임 및 신뢰’, 그리고 ‘섀도 AI 사용’ 등을 우려하는 목소리도 컸다.
이에 기업으로선 직원들이 사용할 수 있는 신뢰할 수 있는 AI 도구를 명확하게 제시, 운영 할 필요가 있다. 이를 통해 개발자가 설치하는 패키지 및 라이브러리에 대한 감독 기능을 강화해야 한다는 주장이다. 특히 “슬롭스쿼팅을 방지하기 위해선 ‘패키지 레지스트리’나 서명을 더욱 면밀히 검증, 출처를 알 수 없는 패키지가 설치되는 것을 방지하는게 중요하다”는 것이다.
또 “패키지의 인기도, 연령, 작성자를 확인하는 자동화된 보안 알고리즘”도 전문가들이 추천하는대 대안으로 꼽힌다.