
실존 인물의 얼굴을 합성해 진짜처럼 보이는 가짜 동영상 ‘딥페이크’에 얼굴이 도용된 피해자 4명 중 1명이 우리나라 여자 연예인인 것으로 밝혀졌다.
영국 공영방송 BBC는 지난 7일(현지시간) 네덜란드의 사이버 보안 연구 회사 딥트레이스의 딥페이크 연구 보고서를 인용해 딥페이크 비디오가 2018년 12월 기준 약 8000개에서 비해 올 10월 현재 1만4698개로 2배 가까이 증가했다고 보도했다.
이어 딥페이크 영상 중 96%는 포르노였으며, 이 같은 영상에 얼굴이 도용된 피해자 가운데 미국과 영국의 여배우가 46%를 차지했다. 그 다음은 K팝 등으로 사랑받는 한국 여자 연예인으로 25%에 달하는 것으로 드러났다.
딥 트레이스의 연구진은 2차 피해를 막기 위해 피해자들의 이름을 공개하지 않았다.
딥트레이스 관계자는 “(피해자의) 절반 정도가 영국이나 미국 출신이라는 점을 고려하면 딥페이크 포르노는 국적이나 문화적 배경을 불문하고 모든 유형의 여성 연예인을 타깃으로 한다”고 설명했다.
딥페이크란 인공지능(AI) 기술을 활용해 기존 인물의 얼굴이나 특정한 부위를 영화의 컴퓨터그래픽(CG) 처리처럼 다른 이의 그것으로 합성한 영상편집물이다.
이 기술을 사용하면 특정인의 얼굴로 포르노를 만들거나 유명 정치인이 발언하지 않은 내용을 연설하고 있는 장면을 연출할 수 있다.
또 자연스러운 표정이나 이목구비 움직임까지 연출할 수 있고, 제스처와 목소리까지 복제할 수 있는 게 현재 딥페이스 기술의 수준이다.
이 같은 기술의 오용과 악용 사례가 우려되는 가운데 대부분의 나라에서 딥페이크에 대한 규제가 제대로 갖춰지지 않은 실정이라고 BBC는 전했다.
최서영 온라인 뉴스 기자 sy2020@segye.com
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]