올해 납치 빙자 전화금융사기 174건…경찰 "신고해야"
피싱 넘어 진화…경찰 "영상·목소리 학습 못하게 SNS 전체공개 지양해야"
"...살려주세요"
지난 10월쯤 외국인 A씨의 스마트폰에 한국을 여행하던 딸이 방 안에 감금된 채 울면서 이처럼 애원하는 영상이 전송됐다.
영상을 보낸 상대방은 "당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라"라며 부모를 협박했고, 부모는 이 사실을 영사관에 알렸다. 신고를 받고 출동한 한국 경찰은 즉각 딸의 안전을 확인했다. 울부짖던 딸은 딥페이크로 만든 가짜 영상이었다.
경찰청 국가수사본부는 7일 이러한 사건을 공개하면서 최근 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 전송하고, '자녀를 납치를 했다'며 금전을 요구한 외국인 대상 전화금융사기가 발생하고 있다고 밝혔다. 그러면서 "국내에서도 유사한 사건이 발생할 가능성이 있으니 주의해야 한다"고 당부했다.
딥페이크는 인공지능(AI) 기술을 활용하면 단순히 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정·움직임 등도 재현 가능하다. 또 가짜 음성을 생성하는 딥보이스도 유의해야 한다. 범인이 자녀 목소리를 복제해 납치 범죄에 악용할 가능성이 있다.
기존 피싱범죄가 목소리를 흉내내는 데 그쳤다면, 이제는 실제에 가까운 자녀의 목소리와 얼굴을 보여주면서 즉각적 송금을 요구하는 범행이 이뤄질 수도 있다. 부모도 상황을 판단할 여유가 없이 심리적 압박에 내몰릴 가능성이 상당하다.
경찰청은 "딥페이크와 딥보이스는 실제 인물을 학습해야 하므로 사회관계망서비스(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등이 범죄조직의 표적이 될 수 있다"며 사회관계망서비스(SNS) 전체 공개 설정을 지양해야 한다고 경고했다.
아울러 올해 9월까지 납치를 빙자한 전화금융사기가 174건 발생했다면서 "납치 전화가 금융사기일 가능성을 항상 염두에 두고 무조건 신고해야 한다"고 강조했다.
안찬수 경찰청 마약조직범죄수사과장은 "AI 기술의 발전이 일상생활을 더 편리하게 만들었지만, 동시에 이러한 기술이 범죄에 악용될 수 있는 환경을 제공하기도 하므로 국민께서 항상 조심하셔야 한다"며 "국내는 물론 해외 주재관과 한인회를 통해서도 전파하여 국민 보호에 힘쓰겠다"고 말했다.
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]