UPDATED. 2019-10-14 22:14 (월)
[해외는] 상사 목소리 합성 사기…‘AI 보이싱피싱’ 첫 피해 발생
[해외는] 상사 목소리 합성 사기…‘AI 보이싱피싱’ 첫 피해 발생
  • 변희진 기자
  • 승인 2019.09.08 23:13
  • 댓글 0
이 기사를 공유합니다

인공지능(AI)를 활용한 보이스피싱 피해 사건이 실제로 일어나 주목을 끈다.

기술정보 전문매체인 기가진은 세계 최초로 AI로 만들어진 음성합성에 의한 사기 피해가 발생했다고 소개하고 그 피해액이 24만3000만 달러(약 2억8500만 원)에 달하는 것으로 밝혀졌다고 전했다.

피해를 입은 기업의 보험사인 외러 에르메스(Euler Hermes)에 따르면 그 기업의 매니저는 사건 당일 오후에 상사로부터 한 통의 전화를 받았다. 전화 속 상사의 목소리는 “지불 지연에 따른 추가요금을 지불하기 위해 헝가리의 은행계좌에 송금할 것” “전화를 하면서 메일로 명세를 송신할 것”을 지시했다. 그런데 이 목소리는 상사를 재현한 합성음성이였다. 합성음성은 음색만 같은 것이 아니고 목소리의 상태나 말버릇도 같고 심지어 독일어 사투리까지 똑같이 재현했다.

첫 번째 송금을 끝낸 직후, 다시 상사의 목소리 전화가 다시 걸려와, 그것을 수상하게 여긴 담당 매니저는 본인이 직접 상사에게 다시 전화를 걸었다. 매니저가 외러 에르메스 앞으로 보낸 메일에는 “내가 진짜 상사와 얘기를 하고 있는 동안에도 합성음성의 상사는 계속 얘기를 했다”고 적혀 있다.

최근 몇 년, 실제 인물에 영상이나 음성을 합성하는 AI 기술이 고도로 발달돼 왔다. 2017년에는 유명 여배우의 얼굴을 합성한 페이크 포르노가 화제가 됐고, 그것을 계기로 딥페이크(Deepfake)로 불리는 합성기술이 발전해 왔다. 지난달 말 중국에서는 한 장의 얼굴 사진에서 간단하게 딥페이크 영상을 만들어내는 앱 ‘ZAO’가 선보여 큰 관심을 끌었다.

그러나 다른 한편으로는 팁페이크 기술 발전에 대한 우려도 제기되고 있다. 무엇보다도 프라이버시 침해 가능성을 제기하는 목소리가 크다. 합성 영상을 악용한 가짜뉴스의 확산으로 진진과 거짓의 분별이 어려워지는 위험성도 지적된다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울시 영등포구 여의서로 43 (여의도동 한서리버파크 빌딩) 916호
  • 대표전화 : 02-780-8101~2
  • 팩스 : 02-780-8103
  • 청소년보호책임자 : 윤 원창
  • 법인명 : 테크데일리 주식회사
  • 제호 : 테크데일리(TechDaily)
  • 등록번호 : 서울 아 05225
  • 등록일 : 2018-06-01
  • 발행일 : 2018-06-01
  • 발행인 : 문 창남
  • 편집인 : 윤 원창
  • 테크데일리(TechDaily) 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2019 테크데일리(TechDaily). All rights reserved. mail to news@techdaily.co.kr
ND소프트