"모르는 전화 받았다면 '절대' 먼저 말하지 말라"…대체 왜?

'목소리 복제' AI 보이스피싱 기승
"여보세요" 몇 초만 말해도 악용 가능성
조수영 교수 "목소리 녹음 뒤 협박 범죄"
  • 등록 2024-07-20 오후 1:58:17

    수정 2024-07-20 오후 1:58:17

[이데일리 이로원 기자] 보이스피싱(전화금융사기)을 예방하기 위해서는 모르는 번호로 전화가 왔을 때 먼저 말을 하면 안 된다는 방법이 온라인 상에서 화제를 모으고 있다.

사진=게티이미지
20일 각종 소셜미디어에는 ‘모르는 번호로 전화 와서 아무 말도 안 하면 절대 먼저 말하지마’라는 제목의 글이 공유되고 있다.

해당 글을 올린 A씨는 자신을 숙명여대에 재학 중인 대학생이라 밝히며 “보이스피싱을 교수님 덕분에 회피했다”고 운을 뗐다.

이어 “전화를 받았는데 건 사람이 계속 한마디도 안 했다”며 “전화 받은 사람도 아니고 전화 건 사람이 이럴 수가 있나 싶어서 ‘여보세요’ 하려다가 4산법(4차산업혁명과 법) 교수님이 해준 얘기가 기억났다”고 당시 상황을 전했다.

A씨는 “교수님이 모르는 번호로 전화가 왔는데 아무 말도 안 하면 절대 말하지 말라고 하셨다”며 “(전화를 받은 사람의) 목소리를 따서 가족한테 사기치려고 그러는 거라고 하셨던 말씀이 생각났다”고 설명했다.

해당 글에 등장한 교수는 조수영 숙명여대 교수(법학)다. 그는 전날 “‘4차 산업혁명과 법’ 과목 강의 중 기술 발달에 따라 지능화되는 보이스피싱 범죄를 예방하기 위한 방법 가운데 하나로 이 내용을 언급했다”며 “글을 보니 학생이 당부를 잘 따라줬다”고 한 매체와의 인터뷰를 통해 말했다.

조 교수는 “최근 보이스피싱 범죄 집단이 통화 목소리를 녹음하고, 이를 다른 텍스트와 결합해 새로운 음성을 만들어 협박에 이용하는 사례가 많다”며 “‘여보세요. 누구시죠’ 등 짧은 단어 두 세 마디만 말해도 이렇게 악용될 수 있다”고 설명했다. 딥보이스(인공지능 기술을 활용해 특정인의 목소리를 똑같이 내는 기술)를 통해 피해자 목소리로 ‘교통사고 등 급한 상황이 생겼으니 돈을 보내달라’고 가족이나 친구 등에게 요구하는 식이다.

실제로 최근 특정인의 목소리를 복제하는 생성형 인공지능(AI)이 보이스피싱에 이용되는 경우가 늘고 있다. 이에 국내 이동통신사들도 AI 기반 보이스피싱 필터링 서비스를 개발하는 등 대응에 나서고 있다.

지난 2021년 10월 아랍에미리트(UAE)의 한 은행은 평소 거래하던 대기업 임원의 목소리를 흉내 낸 딥보이스 보이스피싱에 속아 3500만달러(당시 약 420억원)를 송금했다. 지난해 3월 캐나다에서는 딥보이스로 만든 가짜 아들 목소리에 속은 부모가 보이스피싱범에게 2만1000 캐나다 달러(당시 약 2000만원)를 송금하는 피해를 봤다.

이데일리
추천 뉴스by Taboola

당신을 위한
맞춤 뉴스by Dable

소셜 댓글

많이 본 뉴스

바이오 투자 길라잡이 팜이데일리

왼쪽 오른쪽

스무살의 설레임 스냅타임

왼쪽 오른쪽

재미에 지식을 더하다 영상+

왼쪽 오른쪽

두근두근 핫포토

  • 시선집중 ♡.♡
  • 몸짱 싼타와 함께 ♡~
  • 노천탕 즐기는 '이 녀석'
  • 대왕고래 시추
왼쪽 오른쪽

04517 서울시 중구 통일로 92 케이지타워 18F, 19F 이데일리

대표전화 02-3772-0114 I 이메일 webmaster@edaily.co.krI 사업자번호 107-81-75795

등록번호 서울 아 00090 I 등록일자 2005.10.25 I 회장 곽재선 I 발행·편집인 이익원 I 청소년보호책임자 고규대

ⓒ 이데일리. All rights reserved