“살려달라” 딥페이크 영상까지…‘납치 빙자’ 금융사기 주의보

“살려달라” 딥페이크 영상까지…‘납치 빙자’ 금융사기 주의보

김주연 기자
김주연 기자
입력 2024-11-07 15:15
수정 2024-11-07 15:29
  • 기사 읽어주기
    다시듣기
  • 글씨 크기 조절
  • 댓글
    0
이미지 확대
아이클릭아트
아이클릭아트


외국인 A씨는 지난달 한국으로 여행 간 딸이 납치됐다며 “살려달라”고 우는 영상을 받았다. 영상을 보낸 외국 범죄조직은 “딸을 살리고 싶으면 합의금을 보내라”며 A씨를 협박했다. 놀란 A씨는 영사관에 알렸고, 신고를 받고 출동한 한국 경찰은 A씨의 딸이 안전하게 지내고 있다는 사실을 확인했다. 경찰 수사 결과, A씨가 받은 딸의 영상은 딥페이크로 만든 가짜였다.

경찰청 국가수사본부는 7일 이러한 사건을 공개하면서 “국내에서도 유사한 사건이 발생할 가능성이 있으므로 유의해달라”고 밝혔다. 딥페이크나 딥보이스로 얼굴과 목소리를 실제와 흡사하게 복제해 부모나 지인 등에게 곧바로 돈을 보내라고 요구하면 당황한 피해자가 돈을 보낼 위험이 적지 않다.

경찰은 이런 피해를 예방하기 위해 소셜미디어(SNS) 등에 본인이나 가족의 영상이나 사진을 전체 공개로 올리지 않도록 유의해야 한다고 강조했다. 특히 자녀 등을 납치했다는 협박을 받은 경우 가장 먼저 경찰에 전화나 문자 등으로 신고해 도움을 요청해야 한다.

경찰청에 따르면 올해 들어 지난 9월까지 납치를 빙자한 전화 금융사기만 174건이 발생했다. 안찬수 경찰청 마약조직범죄수사과장은 “인공지능(AI) 발전이 일상생활을 더 편리하게 만들었지만, 동시에 범죄에 악용될 환경을 제공했다”고 말했다.

Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
close button
많이 본 뉴스
1 / 3
광고삭제
광고삭제
위로