세계일보

검색

“○○○인데요” 유명인 사칭 사기 활개… 美선 3000% 급증 [심층기획-사회 혼란 빠뜨리는 '가짜뉴스·딥페이크']

, 세계뉴스룸

입력 : 2024-08-27 06:00:00 수정 : 2024-08-27 09:44:55

인쇄 메일 글씨 크기 선택 가장 작은 크기 글자 한 단계 작은 크기 글자 기본 크기 글자 한 단계 큰 크기 글자 가장 큰 크기 글자

딥페이크 사기 범죄 비상

관련기술 발전으로 손쉽게 제작
손흥민 얼굴·목소리로 투자 권유

英기업, 딥페이크 속아 341억 피해
전문가 “기술 고도화 땐 피해 급증”

특정인 목소리 딥보이스도 위험
경찰, 탐지 소프트웨어 개발 활용
디지털 플랫폼 책임 강화 의견도
“안녕하세요, 손흥민입니다. 저는 축구 선수이자 경험 많은 투자자입니다.”


영락없는 축구 선수 손흥민의 얼굴과 목소리다. 영상 속 손흥민은 “투자 수익이 8000만원이 넘었다”며 “급등 우량주 3개를 무료로 공유하겠다”고 말한다.

올해 4월부터 유튜브와 사회관계망서비스(SNS)를 중심으로 노출되기 시작한 이 광고는 ‘딥페이크’를 통해 합성한 영상이다. 불법 투자 리딩방으로 유도하기 위한 가짜 광고다.

최근 유튜브 등에 노출된 축구 선수 손흥민을 사칭한 딥페이크 투자 광고 영상. 유튜브 캡처

입 모양이 말과 어긋나는 데다 일부 대목에서는 어색한 톤이 드러나 딥페이크임을 눈치채기 어렵지 않지만, 허투루 보면 속을 수도 있다. 이 영상에 속지 않았다고 안심하긴 이르다. 딥페이크 영상을 만들 수 있는 인공지능(AI) 기술이 나날이 발전하고 있기 때문이다.

지금도 AI 기술 대중화로 누구나 영상과 음성을 쉽게 만들 수 있다. 이 같은 최신 기술이 금융투자사기나 보이스피싱에 활용될 가능성도 대두된다. 아직까지 국내에서 발생한 피해 사례는 많지 않지만 해외에서는 거액의 피해를 입은 경우가 보고되고 있는 만큼 관련 대책이 시급하다는 지적이다.

26일 현재 온라인상에서는 손씨뿐 아니라 다수의 유명인을 사칭한 딥페이크 영상들이 활개치고 있는 상황이다. 지난해에는 손석희 전 JTBC 사장의 얼굴과 목소리를 사칭해 투자를 권하는 영상이 페이스북에 퍼져 논란이 됐다. 유명인을 믿고 투자했다가 사기 피해를 입은 경우도 있다. 지난해 한 투자 사기 일당이 유명 투자자와 딥페이크로 제작한 배우 송혜교·조인성씨의 축하 영상을 내세운 뒤 피해자들로부터 수천만원을 가로챈 사례가 있었다.

◆해외선 300억대 사기 사례

국내에선 아직 딥페이크를 활용한 경제 관련 범행이 드물지만, 해외에서는 이미 딥페이크를 활용한 사기 범죄가 급증하는 추세다.

신원 확인 보안업체 섬서브에 따르면 지난해 전 세계 주요국의 딥페이크 사기 범죄 증가율은 미국이 3000%, 일본이 2800%라는 비현실적인 수치를 기록했다. 벨기에에서도 증가율이 2950%나 됐다. 없던 범죄가 갑자기 생겨나며 급속도로 퍼지고 있는 것이다.

자금력이 강한 글로벌 기업들이 딥페이크 사기 범죄의 주요 타깃이다. 기업을 대상으로 한 딥페이크 사기 중 지금까지 가장 규모가 큰 피해는 영국 설계기업 에이럽의 사례로, 피해액이 2억 홍콩달러(약 341억원)에 이른다.

에이럽의 홍콩 지사 직원은 2월 영국 본사의 최고재무책임자(CFO)가 주재하는 화상회의에 참석했다가 CFO의 요구에 따라 341억원을 이체했다. 직원은 뒤늦게 화상회의에 참석한 CFO와 다른 직원들 모습이 모두 딥페이크 영상이라는 사실을 깨닫고 신고했으나 이미 한발 늦은 뒤였다. 지금까지도 현지 경찰은 사기범을 검거하지 못한 것으로 전해졌다.

이 같은 방식의 범행이 등장할 수 있었던 건 딥페이크에 대한 접근성이 현저히 낮아졌기 때문이다. 딥페이크를 제작하기 위해서 고성능의 컴퓨터가 필요했던 과거와 달리, 현재는 스마트폰에서도 유무료 애플리케이션을 통해 불과 몇 분 안에 딥페이크를 만들 수 있다.

◆“플랫폼 책임 강화해야” 목소리

전문가들은 “아직까지는 대부분의 딥페이크가 조악한 수준으로 사기 범죄에 본격적으로 활용되기는 어려워 보인다”면서도 “향후 기술의 고도화에 따라 관련 범죄 피해가 급증할 가능성도 배제할 수는 없다”고 우려한다.

실제로 단일 조직으로 피해금 기준 최대 규모인 1500여억원을 갈취한 김○○파 일당은 피해자들의 신뢰를 확보하기 위해 방송에 출연한 검사 영상에 조직원 음성을 입히는 방식의 딥페이크 기법을 연구했다는 사실이 지난해 경찰 수사 과정에서 드러나기도 했다.

특히 수사 일선에서는 AI 기술을 활용해 특정인의 목소리를 똑같이 내는 기술인 딥보이스에 주목하고 있다. 영상 형태인 딥페이크에 비해 상대적으로 만들기 쉽기 때문이다. 경찰청 관계자는 “자녀를 사칭하거나 자녀 납치를 빙자해 금품을 뜯어내는 수법이 등장할 개연성이 있다”고 말했다.

사진=게티이미지뱅크

경찰은 올해 3월부터 딥페이크를 탐지할 수 있는 소프트웨어를 개발해 범죄 단속에 활용하는 등 대응 준비에 부산하다.

함민정 고려대 정보문화연구소 연구원은 최근 보고서를 통해 “딥페이크 기술이 더욱 정교해짐에 따라 딥페이크 탐지 기술 역시 더 발전된 AI 알고리즘과 탐지 기술을 갖추기 위해 노력할 필요가 있다”고 강조했다.

딥페이크 범죄의 온상이 된 디지털 플랫폼의 책임을 강화할 필요가 있다는 의견도 나온다. 올해 초 호주의 광산 재벌 앤드루 포레스트는 페이스북을 운영하는 메타를 상대로 자신이 가상자산 관련 딥페이크 사기 광고에 이용된 데 대한 과실책임을 묻는 민사소송을 제기한 바 있다.

한 경찰 관계자는 “딥페이크나 딥보이스 여부를 실시간으로 탐지하기 위해서는 플랫폼이나 통신사, 스마트폰 디바이스 등 각각의 사업자가 단계별로 전송된 영상·음성 정보가 조작됐는지 여부를 확인할 수 있는 기술을 마련하는 것이 필수적”이라고 강조했다.


백준무·이지안 기자

[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]

오피니언

포토

이세영 '청순미 발산'
  • 이세영 '청순미 발산'
  • 뉴진스 다니엘 '반가운 손 인사'
  • 박규영 '아름다운 미소'
  • 오마이걸 아린 '청순&섹시'