세계일보

검색

사진 속 여성 옷 벗겨 주는 텔레그램방 적발

입력 : 2020-10-22 06:00:00 수정 : 2020-10-21 20:01:46

인쇄 메일 url 공유 - +

여성사진 보내면 AI가 옷 삭제
나체사진 유포 피해자 최소 10만
운영자 “오락일 뿐 폭력행위 없다”
텔레그램 채팅방에서 인공지능(AI)을 이용해 가짜 나체 사진을 합성해주는 과정을 보여주는 일러스트. 센서티 보고서 캡처


인공지능(AI) 기술을 이용해 사진 속 여성을 나체로 만들어주는 텔레그램 대화방이 적발됐다. 이를 통해 지난 1년 사이 온라인에서 가짜 나체 사진이 유포된 피해 여성은 최소 10만명 이상인 것으로 조사됐다.

20일(현지시간) BBC방송에 따르면 민간 정보업체 센시티는 최근 텔레그램 대화방에서 여성 사진을 전달하면 ‘딥페이크 봇’이 옷을 삭제해주는 서비스를 제공하고 있다는 보고서를 발간했다. 딥페이크는 인공지능을 기반으로 한 인물 이미지 합성 기술이다.

해당 대화방은 사진을 받고 수분 만에 편집을 완료하며 비용도 청구하지 않는다고 보고서는 전했다. 보고서에 따르면 지난해 7월부터 1년간 10만4852명의 여성 사진이 이 대화방을 통해 가짜 나체 사진으로 만들어져 유포됐다. 이 가운데는 미성년자도 있는 것으로 확인됐다.

BBC는 몇몇 여성의 동의를 얻고 그들의 사진을 이 대화방에 제출한 결과, 실제로 편집된 사진을 받았다고 전했다. 다만 한 사진에선 배꼽이 횡격막 쪽에 달리는 등 결과물이 사실적이진 않았다고 설명했다.

‘P’라고만 알려진 이 대화방 운영자는 BBC에 “이 서비스는 오락일 뿐이고 폭력 행위도 없다”며 “사진 퀄리티도 사실적이지 않아, 이를 이용해 누군가를 협박하려는 사람도 없을 것”이라고 주장했다. 그러나 딥페이크 봇은 그 어떤 사진이라도 무차별적으로 편집해 피해가 급격히 확산할 수 있다고 센시티는 지적했다.

조지오 파트리니 센시티 대표는 “사진이 노출된 사회관계망서비스(SNS) 계정만 있다면 충분히 공격 대상이 될 수 있다”고 지적했다. 그러면서 “문제의 서비스는 특히 러시아 SNS 사이트인 VK에서 많이 광고되고, 이용자 대다수가 러시아 등 구소련 국가 출신”이라고 설명했다.

전문가들은 이처럼 딥페이크를 활용한 범죄가 증가하고 있지만, 이를 규제할 법적 장치는 미비하다고 입을 모았다. ‘딥페이크와 인포컬립스’의 저자 니나 식은 “딥페이크물이 더욱 정교해지는 건 시간문제”라며 “우리의 법 제도는 이 문제를 해결하기에 적합하지 않다”고 말했다. 이어 “페이크 포르노 피해자들을 생각하면 절망적인 상황이라며 “이들은 사생활 침해와 모욕감으로 인생이 완전히 뒤집힐 수 있다”고 우려했다.

 

조성민 기자 josungmin@segye.com


[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]

오피니언

포토

조이 '사랑스러운 볼콕'
  • 조이 '사랑스러운 볼콕'
  • 아이들 슈화 '깜찍한 볼하트'
  • 아이들 미연 '깜찍한 볼하트'
  • 이민정 '반가운 손인사'