聰明不如鈍筆
총명불여둔필
assignment Currents

딥페이크 포르노 범람…피해자 25%는 K팝 스타


프로노 같은 성(性) 관련 분야에서 언제나 신기술을 처음 받아들였다. 그게 그냥 인간의 방식인 모양이다. ─ 월드와이드웹(WWW)의 아버지 팀 버너스리 경


전 세계에서 유통 중인 '딥페이크 포르노' 네 개 가운데 하나는 K팝 스타 얼굴을 합성했다는 조사 결과가 나왔습니다.


미국 대중문화 전문지 '롤링스톤'은 딥페이크 동영상을 추적·분석하는 네덜란드 사이버 보안업체 '딥트레이스'를 인용해 기계학습(머신러닝) 기법을 동원해 만든 가짜 합성 동영상 가운데 96%가 포르노 동영상이고, 이 중 25%는 K팝 스타 얼굴을 합성한 것이라고 7일(현지시간) 보도했습니다.


K팝 스타 얼굴을 합성한 동영상은 대부분 한국이 아니라 중국에서 만들었다는 게 딥트레이스 분석 결과. 이 업체는 2차 피해 우려 때문에 구체적인 피해자 신원에 대해서는 공개하지 않기로 했습니다.


롤링스톤은 "K탑 스타 얼굴을 합성한 동영상이 이렇게 많은 건 물론 전 세계적인 인기 때문이지만 한국에서는 포르노가 불법인 것도 영향을 끼쳤을 수 있다"고 분석했습니다.



영국 BBC 방송에 따르면 기본적으로 한 사람 사진 250장이 있으면 이틀 안에 딥페이크 포르노를 만들 수 있으며 제작 비용은 천차만별이지만 2.99달러(약 3500 원)에 영상을 만들어주는 업체도 있습니다. 기술이 발전하면서 갈수록 필요한 사진 숫자도 줄어들고 있습니다.


연구 책임자 헨리 아이더는 BBC 인터뷰를 통해 "딥페이크 기술이 처음 등장했을 때는 정치 문제나 사기 범죄가 늘어날 것이라고 우려했다. 그러나 정작 문제는 포르노였다"고 지적했습니다.


사실 이런 업체가 있다는 것 자체가 딥페이크 동영상이 넘쳐나고 있다는 반증입니다. 이 업체는 지난해 12월 딥페이크 동영상이 7964개라고 조사했는데 올해 9월 현재는 1만4698개로 84.6% 늘었습니다.


딥페이크생산적 적대 신경망(GAN·Generative Adversarial Network)이라는 알고리듬을 활용해 영상을 합성하는 기술을 뜻합니다. 2017년 레딧에 관련 소스를 공개한 인물이 딥페이크(deepfake)라는 ID를 써서 이렇게 부르고 있습니다.


딥페이크 기술로 만든 버락 오바마 전 미국 대통령 영상


문제는 이렇게 동영상을 만들어도 불법 촬영 영상 유포에 해당하지 않기 때문에 처벌이 쉽지 않다는 점. 그래서 별도로 처벌 조항을 만들어야 합니다. 버지니아주는 올 2월 28일 미국 최초로 딥페이크 포르노 유포와 공유를 금지하는 법안을 통과시켰습니다.

댓글,

Currents | 카테고리 다른 글 더 보기