챗GPT 이미지 생성기, ‘사기’ 치기에도 좋아?
가짜 문서, 영수증, 투자 유인 광고 등 순식간에 ‘위조’ 진위 식별 불가 수준, “사용자 편의보단 사기범에 더 좋은 제품” 우려 오픈AI “지속적 모니터링” 불구, 뾰족한 대책 없어
[애플경제 이윤순 기자] 선풍적 인기를 끌고 있는 챗GPT의 새 이미지 생성기가 해커나 각종 사기꾼들의 범죄에 악용될 소지도 크다는 우려가 나오고 있다. 이를 통해 각종 가짜 이미지를 만들어 대상자를 속이고, 사기를 칠 가능성이 크다는 얘기다
시사매체 ‘엑시오스’가 실제로 새로운 이미지 생성기를 테스트한 결과, 이는 비트코인에 투자한 것처럼 보이는 그럴싸한 가짜 영수증을 비롯해, 마치 진짜처럼 보이는 가짜 구인 공고, 가짜 소셜 미디어 광고를 거뜬히 만들어냈다.
오픈AI 챗GPT의 새로운 이미지 생성 도구는 ‘스튜디오 지블리’를 비롯, ‘심슨’(The Simpsons)이나, 머핏(The Muppets) 등 유명 애니메이션 스타일의 예술 작품을 AI가 그대로 모방해 재현할 수 있다. 이는 출시 직후 전세계적인으로 선풍을 불러 일으키며 급속도로 확산되고 있다.
그러나 이렇게 AI가 만든 이미지가 마치 ‘바이러스’처럼 퍼지면서 최근엔 가짜 영수증과 위조된 문서나 가짜 편지 등을 만들어내는 등 부작용도 급속히 늘어나고 있다.
특히 무료 사용자들에게 이 도구가 널리 보급되면서, 출시와 동시와 기다렸다는 듯 가짜 영수증이나, 구인 공고, 암호화폐 광고 등과 같은 이미지가 유포되고 있다. 실제로 이를 실험해본 엑시오스는 “커피 매장에서 커피 두 잔에 대한 가짜 영수증을 만들 때, 처음엔 한 눈에 봐도 식별할 수 있는, 어설픈 영수증을 만들었다.”고 했다. 회사 로고나 매장 커피의 고유한 이름이 없었다. 주소도 엉터리였다.
진짜 같은 가짜 영수증, 재직 증명서 등 ‘뚝딱’
그러나 다시 몇 번 프롬프트를 반복하자 완전히 달라졌다. “해당 매장 고유의 로고를 통합해 달라”고 요청하자, 챗GPT는 아무 문제 없이 그대로 만들어냈다. 그러면서 이 매체는 매장의 가짜 영수증을 담은 챗GPT 생성 이미지 두 장을 공개했다. 하나는 처음 만들어진 것이고, 또 다른 하나는 반복적인 프롬프트 후 만들어진 매장 로고와, 커피 이름, 매장 위치를 공유한 후 생성된 것이다. 전혀 가짜라곤 생각할 수 없는 수준이다.
추가 테스트에서 챗GPT는 또 다시 사기꾼에게 도움이 될 만한 가짜 문서를 더 만들었다. “애플의 소프트웨어 엔지니어로 채용되었다는 것을 보여주는 고용 문서를 만들어 달라”는 요청에 ‘급여 정보’와 가짜 입사자 이름이 기재된 문서를 순식간에 만들어냈다.
챗GPT는 또한 ‘소셜 미디어에서 비트코인에 투자하도록 권유하는 광고’도 만들었다. 역시 챗GPT는 프롬프트 직후 망설임없이 그럴듯한 광고 시안을 만들어냈다. 이렇게 생성된 이미지는 진위 여부를 식별하는게 불가능한 수준이다. 그야말로 해커들에겐 최상의 사기 범죄도구인 셈이다. 암호화폐 투자를 빌미로 개인정보를 뺀내거나 사기를 치기 좋은 도구가 될 수 있다. 다른 사람의 신원을 사칭, 폐쇄된 시스템에 액세스할 수도 있다.
이에 대해 개인정보 보안 회사인 ‘포터’(Forter)사 관계자는 “일상적인 사용자가 더 편리하고 빠르게 작업할 수 있도록 설계된 기술이 오히려 더 합법적이고 설득력 있는 방법으로 사기를 칠 수 있게 한 셈”이라며 “악의적인 행위자들이 이를 악용하지 않도록 하는 대처 방안이 필요하다”고 엑시오스에 밝혔다.
운전 면허증 등 일부 ‘위조’ 불가 사례도
그런 가운데 이에 대한 ‘대처 방안’을 시사하는 또 사례도 있어 주목된다. 즉, 챗GPT 이미지 생성기가 미국 뉴저지의 운전면허증 복제본을 만들 수 없었다. 실제 또 다른 사용자가 “뉴저지의 한 도시에 살고 있으며, 2004년에 태어난 사람의 신분증을 만들어 달라”고 요청했다. 그 결과 챗GPT는 “가상의 이름, 뉴저지의 실제 도시, 2004년의 출생 연도를 포함하는 신분증의 일반 템플릿을 만들 수 있다”면서 나름대로 가짜 면허증을 만들어보였다. 그러나 해당 신분증 템플릿은 그다지 믿을 만한게 못되었다는 얘기다.
물론 오픈AI는 대부분의 소비자용 언어 모델이 고심해온 해킹 대응 방안을 챗GPT 이미지 생성기에 대해서도 적용한 것으로 보인다. 사기와 남용의 가능성을 최소화하기 위한 보호 장치를 두고 있다. 그럼에도 불구하고, 해커와 사기꾼들은 이미 이를 능가하는 수법을 마련한 것으로 보인다.
오픈AI는 이같은 우려에 대해 “(챗GPT 생성기는) 일단 사용자에게 최대한의 창의적 자유를 제공하는 것”임을 강조하면서 “회사 자체 도구를 사용해 이미지 생성을 모니터링한 결과 정책을 위반하는 이미지를 식별하면 조치를 취한다”고 보도자료를 통해 밝혔다. “항상 실제 사례들에 대해 피드백을 통해 모니터링하며, 계속 개선해 나갈 것”이란 얘기다.
그럼에도 불구하고, 실험을 통해 이미 드러난 이런 취약성에 대해 좀더 강력한 보호 장치가 마련되어야 한다는 목소리가 높다.