SNS 타고 이동 속도 빨라지면서 가짜뉴스 등 양산

딥페이크(deepfake)- 깊이 있는 조작, 허술한 날조가 아니라 누구라도 속일 수 있는 심도 있는 사기. 딥페이크가 설치면서 가짜뉴스가 넘실대고 있다. 유명 탤런트의 얼굴을 음란물에 교묘하게 입혀 유통시키거나, 음성을 교묘하게 합성해 내 보이스피싱에 악용되기도 한다. 딥페이크 기술이 인공지능(AI)에 힘입어 더욱 고도화되면서 심각한 문제를 양산하고 있다.

딥페이크는 기존에 있던 인물의 얼굴이나, 특정한 부위를 영화의 컴퓨터그래픽(CG) 처리처럼 합성한 영상편집물을 총칭한다. 딥페이크 기술은 인물의 얼굴 또는 목소리를 합성하여 실제로는 일어나지 않은 일을 마치 일어난 것처럼 보이게 만든다. 얼마나 얍삽한지 영상 뉴스나 사진에 대한 신뢰성을 흔들어 놓을 정도로 진화를 거듭하고 있다.

얼마 전에는 인물의 사진이나 영상을 조악하게 합성해 게시하던 것이 디지털 기술과 인공지능의 발전으로 몇 단계 정교해진 결과라 볼 수 있다. 원리는 합성하려는 인물의 얼굴이 주로 나오는 고화질의 동영상을 통해 딥러닝하여, 대상이 되는 동영상을 프레임 단위로 합성시키는 것이다.

고도화된 딥페이크 기술이 최근 소셜미디어(SNS)를 타고 빠른 속도로 유포되며 심각한 사회문제가 되고 있다. 과거에는 조악한 수준의 결과물이 많았지만, AI 기술이 발전하며 원본과 구분이 어려운 거짓 콘텐츠가 빠른 속도로 생성되고 있는 것이다.

26일 외신 보도에 따르면 아일랜드 유니버시티 칼리지 코크(UCC) 존 투미 교수팀은 과학 저널 ‘플로스 원’(PLoS ONE)에서 러시아의 우크라이나 침공 관련 딥페이크 동영상에 대한 트윗을 분석한 결과 딥페이크가 다양한 불신을 낳고 음모론을 부추길 가능성이 있는 것으로 확인됐다고 밝혔다.

연구팀은 러시아의 우크라이나 침공과 관련된 딥페이크 동영상은 전쟁에 영향을 미치려는 시도에 딥페이크 기술이 사용된 첫 사례라며 딥페이크 기술로 인한 잠재적인 피해에 대한 우려를 불러일으키고 있다고 지적했다.

AI를 사용해 제작된 딥페이크 동영상에는 실존 인물이 하지 않은 말과 행동을 하는 모습이 등장하기도 한다. 실제로 러시아의 우크라이나 침공 후 볼로디미르 젤렌스키 우크라이나 대통령이 러시아에 항복하는 딥페이크 동영상이 등장해 많은 혼란을 야기시켰다.

이와 함께 최근 틱톡에는 버락 오바마 전 미국 대통령의 가짜 음성이 퍼졌다. 자신의 전 요리사가 사망한 것에 본인이 연루됐다는 음모론을 “의심의 근거를 이해할 수 없다”며 변호하는 내용이다. 하지만 이는 실제 오바마의 음성이 아니라 AI로 합성된 딥페이크다.

이날 미국의 가짜 뉴스 모니터링 단체 ‘뉴스가드’에 따르면 지난달 틱톡에서 이 같은 AI 소프트웨어를 사용해 딥페이크를 생성하는 17개 계정은 3억3600만회 조회 수와 약 1450만개 ‘좋아요’를 얻었다.

국내에서도 딥페이크 영상은 높은 조회 수를 기록하며 퍼졌다. 지난 6월에는 파리 생제르맹(PSG) 소속 축구선수 킬리안 음바페(25)의 거짓 인터뷰 영상이 조회수 1100만회를 넘겼다. 이 영상은 일본 기자가 당시 PSG 이적설이 돌던 축구선수 이강인(22)을 평가절하하는 질문을 하자 음바페가 반박하는 내용이었다. 하지만 이는 음바페가 2021년 ‘유로 2020′ 기자회견에 참석해 답변한 영상 앞부분에 일본 기자 음성을 만들어 넣은 딥페이크 영상이었다.

특히 딥페이크 기술을 이용한 음란물이 사이버 공간에서 넘실대고 있다. 유명 연예인뿐 아니라 일반인의 영상·사진을 음란물에 합성해 판매하는 식이다.

지난 25일 정부는 딥페이크, 가짜 뉴스 등 AI가 생성한 콘텐츠로 생길 수 있는 부작용을 최소화하기 위해 AI 생성물에 대한 ‘워터마크 도입 제도화’를 추진한다는 계획을 밝힌 바 있다. 그러나 그 실효성에 대해 의심하는 시각이 많다. 어찌 됐든 딥페이크가 창궐하여 현실을 오도하는 사태가 빈발해서 사회 혼란을 가중하는 일은 막아내야 하겠다.

키워드

#딥페이크
저작권자 © 애플경제 무단전재 및 재배포 금지