인공지능(AI)를 활용한 보이스피싱 피해 사건이 실제로 일어나 주목을 끈다.

기술정보 전문매체인 기가진은 세계 최초로 AI로 만들어진 음성합성에 의한 사기 피해가 발생했다고 소개하고 그 피해액이 24만3000만 달러(약 2억8500만 원)에 달하는 것으로 밝혀졌다고 전했다.

피해를 입은 기업의 보험사인 외러 에르메스(Euler Hermes)에 따르면 그 기업의 매니저는 사건 당일 오후에 상사로부터 한 통의 전화를 받았다. 전화 속 상사의 목소리는 “지불 지연에 따른 추가요금을 지불하기 위해 헝가리의 은행계좌에 송금할 것” “전화를 하면서 메일로 명세를 송신할 것”을 지시했다. 그런데 이 목소리는 상사를 재현한 합성음성이였다. 합성음성은 음색만 같은 것이 아니고 목소리의 상태나 말버릇도 같고 심지어 독일어 사투리까지 똑같이 재현했다.

첫 번째 송금을 끝낸 직후, 다시 상사의 목소리 전화가 다시 걸려와, 그것을 수상하게 여긴 담당 매니저는 본인이 직접 상사에게 다시 전화를 걸었다. 매니저가 외러 에르메스 앞으로 보낸 메일에는 “내가 진짜 상사와 얘기를 하고 있는 동안에도 합성음성의 상사는 계속 얘기를 했다”고 적혀 있다.

최근 몇 년, 실제 인물에 영상이나 음성을 합성하는 AI 기술이 고도로 발달돼 왔다. 2017년에는 유명 여배우의 얼굴을 합성한 페이크 포르노가 화제가 됐고, 그것을 계기로 딥페이크(Deepfake)로 불리는 합성기술이 발전해 왔다. 지난달 말 중국에서는 한 장의 얼굴 사진에서 간단하게 딥페이크 영상을 만들어내는 앱 ‘ZAO’가 선보여 큰 관심을 끌었다.

그러나 다른 한편으로는 팁페이크 기술 발전에 대한 우려도 제기되고 있다. 무엇보다도 프라이버시 침해 가능성을 제기하는 목소리가 크다. 합성 영상을 악용한 가짜뉴스의 확산으로 진진과 거짓의 분별이 어려워지는 위험성도 지적된다.

저작권자 © 테크데일리(TechDaily) 무단전재 및 재배포 금지