[사회] "엄마 살려줘" 감금된 딸 오열…여행 간 딸 납치영상 정체
-
1회 연결
본문
경찰청 국가수사본부는 “최근 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 전송해 자녀를 납치했다며 금전을 요구한 외국인 대상 전화금융사기가 발생했다”며 유사 사건 발생할 가능성에 각별한 주의를 당부했다.
7일 수사본부에 따르면 지난 10월 외국에 거주하던 부모(외국인)는 한국을 여행 중인 딸이 방 안에 감금된 채 울면서 “살려달라”고 애원하는 영상을 받았다. 범인은 부모에게 “당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라”고 협박했다. 부모는 곧바로 영사관에 알렸고, 영사관에서는 한국 경찰에 신고했다. 신속히 충돌한 경찰은 자녀의 안전을 확인했다.
경찰은 “이 사건으로 다행히 피해는 발생하지 않았지만, 영상에 등장한 딸의 모습이 딥페이크 기술로 만들어진 가짜였다는 점이 확인되면서 인공지능(AI) 기술이 범죄에 악용될 수 있다는 심각성을 보여준다”고 설명했다.
딥페이크(Deepfake)는 AI 기술을 활용해 실재 인물처럼 보이는 가짜 인물을 만들어내는 기술을 말한다. 단순히 영상 속 얼굴을 바꾸는 것을 넘어서 실재 인물처럼 표정·움직임 등도 재현할 수 있다.
경찰에 따르면 피싱범죄에 악용될 수 있는 인공지능(AI) 기술에는 딥보이스(Deepvoice)도 있다. 딥보이스는 특정 인물의 목소리를 복제하는 AI 기술로, 범죄자가 자녀의 목소리를 흉내 내어 부모에게 전화를 걸고 납치된 척 흐느끼며 돈을 요구할 수 있다. 부모와 자식 간의 가족관계라는 특수성을 이용해 부모가 상황을 판단할 여유를 주지 않고 긴급히 송금을 요구하는 방식이다.
딥페이크와 딥보이스는 실재 인물을 학습해야 하므로 사회관계망 서비스(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등은 범죄조직의 표적이 될 수 있다.
이에 경찰은 “딥페이크 기술이 고도화되어 전문가들조차도 육안만으로는 진위를 판단하기 어려운 만큼, 평소에 사회관계망 서비스(SNS) 등에 불특정 다수가 볼 수 있는 공개 설정으로 게시물을 올리는 것을 지양해야 한다”고 권고했다. 만약 납치 빙자 전화를 받는 경우 곧바로 경찰에 신고할 것도 권했다.
경찰에 따르면 올해 9월까지 발생한 납치 빙자 전화금융사기 사건은 174건에 이른다.
경찰은 납치 신고를 접수하면 구조대상자의 위치 파악 등 초동 조치를 최우선으로 하므로 경찰에 신고해야 구조대상자의 안전은 물론 금전 피해까지 예방할 수 있다. 범인이 전화를 끊지 못하도록 협박하여 경찰에 신고하기 곤란한 경우에는 주변 사람에게 경찰에 신고하도록 도움을 청하거나, 통화하면서 문자메시지로 112에 신고하여 자녀의 안전을 확인하는 방식으로 대처해야 한다.
안찬수 경찰청 마약조직범죄수사과장은 “경찰은 AI 기술을 악용한 피싱범죄를 예방하기 위해 홍보 콘텐트를 제작, 국내는 물론 해외 주재관과 한인회를 통해서도 전파해 국민 보호에 힘쓸 것”이라고 밝혔다.
댓글목록 0