AI챗봇 이용 ‘피싱 이메일’, ‘AI 음성 피싱’ 급속히 확산
“완벽한 문장과 어법의 이메일로 피싱 여부 식별 어려워”
악성코드로 통화 중 대화 도용, LLM 조작 ‘돈과 정보’ 훔쳐
[애플경제 이윤순 기자] 흔히 피싱 이메일은 문장이나 번역한 텍스트 자체가 엉성하거나 어법에 맞지 않아 조금만 주의를 기울이면 ‘가짜’임을 식별할 수 있다. 이젠 AI를 동원해 이런 약점을 없애고, 완벽한 문장과 텍스트로 된 이메일로 피싱을 식별하기 어렵게 만들고 있다. 역시 AI를 이용해 음성을 사칭하고 진행 중인 대화를 도용, 자금이나 각종 기밀을 훔치는 ‘AI 음성 피싱’도 기승을 부리고 있다.
세계 각국 언어로 완벽하게 작성된 메시지 발신
이처럼 AI챗봇을 동원한 피싱이 급속히 확산되고 있다. 그로 인해 사기성 이메일을 적발하기가 더 어려워졌고, 어색한 문법이나 이상한 표현으로 사기 이메일을 식별하던 방식은 이제 통하지 않게 되었다.
‘사이버시큐리티 인사이더’에 의하면 전세계적으로 AI를 동원한 사기꾼들은 이런 수법으로 그 어느 때보다 많은 돈을 벌어들이고 있다. 그래서 “AI가 작성한 사기를 막기 위해서는 사용자가 메시지를 확인하고, 수신함에 도착하기 전에 이를 감지하는 새로운 전략이 필요하다”고 강조한다.
챗GPT를 비롯한 챗봇들은 러시아, 중국, 북한 등 비영어권의 공격자들도 매끄러운 영어 문장으로 사용자들이 속아넘어갈 만한 메시지를 작성할 수 있게 해준다. 이전에는 영어 메시지를 위해 구글 번역과 같은 불편한 번역 도구에 의존하곤 했다. 그러나 이런 번역 도구는 너무 직역 위주이거나, 문법과 어조를 제대로 살리지 못한 문장으로 대번에 표가 나는 경우가 많았다.
그러나 이젠 다르다. AI를 사용해 영어를 비롯한 세계 각국의 언어로 유창하게 문장을 작성할 수 있어 악성 메시지를 탐지하기가 훨씬 어려워졌다. 그래서 보안업체 소포스는 엑시오스에 “수상해 보이는 이메일을 열지 않으면 된다는 생각은 더 이상 통하지 않는다”면서 “실제로 많은 사람들이 주고받는 이메일 메시지에도 문법적 오류가 있을 수 있으므로, 더욱 경계하며 식별해내기가 어렵다”고 밝혔다.
포춘 500기업 정보, “불과 몇 분 안에 파악”
그 때문에 은행, 소매업체, 서비스 제공업체의 실제 마케팅 이메일을 바탕으로 AI 도구를 훈련시키고 있다고 SocialProof Security의 윤리적 해커이자 CEO인 레이첼 토박은 Axios에 말했습니다.
더욱 문제는 이런 AI챗봇에 의한 수법이 날로 정확하며, 신속해진다는 점이다. 역시 보안업체인 애브노말 AI는 “사기꾼들은 불과 몇 분이면 챗봇을 사용해 포춘 500대 기업 전체 영업팀에 대한 정보를 만들고, 그 결과를 바탕으로 믿을 만한 맞춤형 이메일을 작성할 수 있다”고 ‘사이버시큐리티 인사이더’에 밝혔다.
또한 유사 도메인을 사용, 기존 이메일 스레드를 통해 진짜 메시지와 거의 구별이 안 되는 이메일을 보내기도 한다.
그러나 ‘사이버시큐리티 인사이더’는 “사기성 이메일을 발견하는 것이 불가능한 것은 아니다.”고 했다. 예를 들어 이메일에 드러나 조직이나 사람에게 직접 문자나 전화를 걸어 의심스러운 메시지를 보냈는지 확인하는 것도 방법이다. 또 비밀번호 관리자를 사용, 복잡하고 긴 비밀번호를 사용하거나, 다중 인증(MFA)을 활성화하는 것도 필요하다.
AI봇 악용한 ‘오디오 재킹’ 날로 진화
사기꾼들은 여기서 그치지 않는다. 사기성 이메일뿐 아니라, 딥페이크와 음성 복제를 위한 저렴한 생성AI 도구가 보편화되고 있어 문제다. 최근 IBM 연구원들은 생성AI 도구를 사용, 음성 통화를 비교적 쉽게 도용하는 수법을 적발해냈다. 많은 금융 기관이나, 각종 민감한 정보를 관리하는 기관 등은 신원 확인을 위해 여전히 전화 통화에 크게 의존한다.
새로운 연구 결과에 따르면, 사기꾼들은 저렴한 AI 도구를 사용, 누군가의 음성을 쉽게 사칭하고 진행 중인 대화를 도용해 돈이나 정보를 갈취할 수도 있다.
IBM 연구원들은 소위 ‘오디오 재킹’이라고 불리는 새로운 수법을 자세히 설명하고 있다. 이에 따르면 공격자들은 음성 복제본을 통해 진행 중인 대화 중간에 LLM을 조작, 끼어드는 수법을 구사한다. 이를 위해 마치 아날로그 방식의 도청처럼, 피해자의 휴대전화에 악성 코드를 설치하거나 무선 음성 통화 시스템을 자신의 AI봇에 연결한다.
이때 AI봇은 특정 핵심 문구를 들을 때마다 어떻게 대응해야 하는지 알려주는 간단한 메시지를 학습한다. 예를 들어 메시지의 해당 문구가 ‘은행 계좌’라면, 챗봇은 악성코드가 심어진 전화나 음성 통화를 통해 들어오는 모든 대화에서 ‘은행 계좌’를 검색한다. 이 문구가 검색될때마다 챗봇은 피해자의 복제된 음성으로 녹음된 다른 문구로 통화 내용을 대체하도록 지시받는다. 그 결과 피해자의 은행 계좌 번호를 공격자의 계좌 번호로 바꿔, 입금되는 모든 돈이 공격자의 계좌로 들어가게 된다.
“원격으로 항공기 ‘하이재킹’도 가능”
IBM Security는 또 “LLM 조작은 금융 정보에만 국한되지 않는다.”고 했다. 즉 “대화 도중에 언급되는 혈액형이나 알레르기와 같은 의료 정보도 수정할 수 있고, 증권사 애널리스트에게 주식 매수나 매도를 지시할 수 있으며, 조종사에게 항로 변경도 지시할 수 있다.”는 것이다. 그야말로 원격으로 금융범죄를 저지르거나, 항공기 하이재킹을 할 수도 있다는 얘기다.
‘사이버시큐리티 인사이더’는 “생성 AI를 동원한 음성 사기 수법이 날로 발달한 나머지, 이젠 공격자가 누군가의 음성을 3초만 들어도 성공적으로 복제할 수 있다”고 했다. 다만 이런 범죄 수법의 약점도 간파되고 있다. 아직은 음성 복제본이 텍스트 음성 변환 API에 접속하고, 챗봇에 지시를 해야 하기 때문에 범행 실행이 지연되기도 한다.
그래서 “의심스러운 전화 통화를 할 경우, 통화 내용을 다시 재확인하고 반복하는 등의 방식이 중요하다”는 조언이다. 이는 대화의 기본적인 패턴과 키워드를 이해하는 데 여전히 서투른 챗봇을 혼란스럽게 할 수 있기 때문이다.
