데이터 그리드가 GAN을 응용해 만든 가공인물들(혼마골프 웹사이트)
데이터 그리드가 GAN을 응용해 만든 가공인물들(혼마골프 웹사이트)

일본에서는 최근 인공지능(AI) 학습용 데이터를 양산하는 ‘갠(GAN)’이라는 기술이 주목을 받고 있다.

일본경제신문 보도에 따르면, 데이터 그리드, 프리퍼드 네트웍스 등 스타트업기업을 비롯한 일본 국내 기업들은 데이터 축적 관련 업무의 효율성을 높이기 위해 이미지 등의 생성기술인 GAN의 응용에 속속 뛰어들고 있다

이와 관련한 대표적인 사례로 일본 혼마골프의 웹 사이트를 들 수 있다. 이 사이트를 열면, 이 회사의 의류상품을 입은 모델이 차례차례 등장해, 화면 한 가득 찬다. 그 수는 대략 1만명. 얼굴 생김새에 위화감은 없지만, 실은 모두 실존하지 않는 인물들이다. ‘생성적 적대 신경망’ 즉 ‘GAN’이라는 인공지능(AI) 기술이 만들어낸 가공의 인물이다.

이 작업을 한 곳은 일본 교토에 근거를 둔 스타트업기업 데이터 그리드. ‘적대(敵對)’하는 2가지의 AI를 이용해 만들었다.

한쪽 AI가 눈이나 코의 형상과 위치를 미묘하게 바꿔 화상을 만들면, 다른 AI가 가짜 여부를 판별한다. 발각된 경우에는 AI가 그 원인을 분석해 새로운 화상을 생성해 다시 도전한다. 2 개의 AI가 서로 경쟁하는 과정에, 실물로 오인되는 얼굴 이미지가 생성된다. 이 프로젝트의 기획자는 “처음에는 부자연스러운 얼굴뿐 이었지만 점차 위화감이 없어져 갔다”고 과정을 설명한다.

AI 관련으로 현재 주류인 심층학습 AI에는 하나의 약점이 있다. 똑똑하게 진화시키기 위해서는 엄청난 양의 데이터를 학습시킬 필요가 있다는 점이다.

그런데 GAN을 이용하면 실제 존재하지 않는 데이터를 양산할 수 있다. 이러면 진짜와 닮은 수술 영상을 의료용 AI에 학습시키거나 자율주행 시뮬레이션을 고도화하는 일이 수월해진다. 전 세계 IT기업들은 AI가 학습하는 속도를 비약적으로 높이기 위해 경쟁을 벌이고 있다. 이들로서는 결코 무시할 수 없는 기술인 것이다.

데이터 그리드의 오카다 유키 사장은 “우리는 GAN을 사용하면 1초에 1명의 얼굴 사진을 만들어낼 수 있다”고 말한다. 지난달에는 이 기술을 응용해 멀티숍인 어번 리서치 등과 ‘갈아입히기’ 서비스 실증실험을 시작했다. 옷과 모델의 이미지를 따로따로 준비해 마치 옷을 입고 있는 것과 같은 이미지를 GAN을 사용해 생성하는 작업이다.

어번 리서치는 의류 사이트에서는 보통 상품 당 약 100장의 사진을 촬영하고 있다. 따라서 GAN을 사용하면 모델 촬영 비용을 대폭 줄일 수 있다.

실사뿐 아니라 애니메이션의 등장인물도 GAN으로 만들어낼 수 있다. 도쿄에 위치한 스타트업기업 프리퍼드 네트웍스는 지난 4월 애니메이션 캐릭터를 무한정 만들어낼 수 있는 법인용 서비스 ‘크립코(Crypko)’를 개시했다. DeNA라는 스타트업기업도 같은 용도의 서비스 개발을 서두르고 있다.

GAN은 응용할 수 있는 범위가 많다. 요코하마의 뿌리를 둔 반도체 상사 마크니카는 자율주행 관련 개발의 효율성을 높이는 연구에 주력하고 있다. GAN을 사용해 실제 이미지를 수정하고 다양한 날씨와 시간대, 풍경을 만들어 낸다. 이렇게 해서, 실제로 자동차를 달리게 하지 않고도 화상인식시스템의 학습용 데이터를 제공할 수 있게 된다.

미쓰비시전기는 화상을 바탕으로 불량품을 검출하는 AI의 효율화 연구를, NTT는 콜센터에서 활용하는 합성음성 응답시스템의 개발을 추진 중이다.

GAN은 약 5년 전인 2014년에 ‘오픈 AI’의 컴퓨터 과학자인 이언 굿펠로우가 창안한 개념이다. 이후 엔비디아, 애플 등 미국 기업을 중심으로 연구가 두드러졌다.

최근 들어, 일본 업체의 진출이 잇따르는 것은 GAN을 사용하면 개인정보 등을 신경 쓰지 않고도 대량의 데이터를 생성할 수 있기 때문이다. AI에 학습시킬 데이터의 축적 부문에서 미국이나 중국에 뒤쳐져 있는 일본에는 만회의 수단이 될 수도 있다.

한편, GAN과 같은 생성 기술에는 부정적인 면도 있다.

대표적인 예가 ‘딥 페이크’로 불리는 가짜 동영상이다. 내년 미국 대선을 앞두고 걱정거리로 제기된 문제이기도 하다. 실제로 오바마 전 미국 대통령 등 유명 인사의 연설 영상을 편집해 사실 무근의 내용을 이야기하고 있는 것처럼 보이는 가짜 동영상이 유포되고 있다. 선거 판세에 지대한 영향을 미칠 수 있기 때문에 미국 하원정보특별위원회는 지난 6월에 딥 페이크의 위협과 대책에 관한 공청회를 열기도 했다.

딥 페이크 문제는 일반인도 무관하지 않다. 일례로, 포르노 동영상에 다른 여자 얼굴로 바꿔치기 한 ‘페이크 포르노’가 등장했다. 음성 합성으로, ‘보이스 피싱’ 수법을 더욱 교묘하게 만들 수도 있다.

기업들은 대책에 나서고 있다. 페이스북과 마이크로소프트는 지난 9월에 미국 매사추세츠공대 (MIT)와 손잡고 딥 페이크를 구분해내는 기술의 경연대회를 개최한다고 발표했다. 아마존 웹 서비스(AWS)도 협력 의사를 밝혔다. 일본에서는 NTT가 “가짜 음성 구분에 사용하는 데이터를 제공하겠다”며 가세했다. 가짜 동영상 검출 기술을 개발하는 스타트업기업도 늘어나고 있다.

그러나 기업들의 대책 마련 움직임은 사실 뒤늦었다. 이미 선수를 빼앗기고 뒤를 쫒아가며 뒤치다꺼리나 하는 형국이다. 이 같은 ‘다람쥐 쳇바퀴 돌기’ 양상은 당분간 계속될 것으로 보인다.

저작권자 © 테크데일리(TechDaily) 무단전재 및 재배포 금지