아이돌 딥페이크 음란물, AI악용사례들

in #krlast year

00431-2484911124.png

#1_K팝 아이돌로 음란물 제작

2020년 네덜란드 딥페이크 탐지 기술업체 '딥트레이스’가 인터넷에 유포된 딥페이크 영상 96%가 음란물이고, 음란 영상물 속 여성의 25%는 K팝 아이돌인 것으로 조사한 사례. 딥트레이스는 2019년과 2020년에 각각 14,678건과 85,047건의 딥페이크 영상을 분석했다. 그 결과, 딥페이크 영상의 대부분이 성적인 내용을 담고 있었으며, 특히 한국 여성 연예인들이 피해를 많이 보았다. 딥트레이스는 딥페이크 기술이 성착취와 복수 등의 목적으로 악용되고 있다고 지적했다.

#2_야동 속 K팝 아이돌 지키자, 청와대 청원까지...

2021년 청와대 국민청원 게시판에 '여성 연예인들을 고통받게 하는 불법 영상 '딥페이크’를 강력히 처벌해 주세요’라는 청원 글이 올라와 한 달간 39만 명이 넘는 국민의 동의를 받은 사례. 이 청원은 K팝 아이돌들을 대상으로 한 딥페이크 음란물 유포가 심각하다고 주장하며, 법적으로 보호받을 수 있는 방안을 마련해 달라고 요구했다. 이 청원은 청와대의 공식 답변 요건인 20만 명을 뛰어넘었으며, 청와대는 아직 답변을 내지 않았다.

#3_ 고등학생, 중학생 지인 딥페이크 음란물 유포

지난달 중학생인 A씨가 친구의 지인인 B씨가 고등학교 2학년생인데 A씨 사진을 이용해 딥페이크 음란물을 만들어 유포하고, 이를 A씨 친구에게 보낸 사례. A씨는 자신의 SNS에 올린 얼굴 사진 두 장을 B씨가 불법적으로 다운로드하고, 딥페이크 어플리케이션을 이용해 음란물에 합성한 것으로 밝혀졌다. B씨는 이 영상을 다른 온라인 커뮤니티에도 올리며 자신과 A씨가 성관계를 맺었다고 거짓말을 했다. A씨는 경찰에 신고하고 법적 대응을 하기로 했다.

#4_10대들 연예인 딥페이크 음란물 유포

부산경찰청이 지난해 12월부터 올해 3월까지 검거한 연예인 합성 음란물 유포 사범 6명 중 4명이 10대라고 밝힌 사례. 부산경찰청은 '디지털 성범죄 특별단속’을 실시하면서 연예인들의 얼굴을 합성한 음란물을 유포한 피의자들을 적발했다. 이들은 인터넷에서 다운로드한 연예인들의 사진과 동영상을 딥페이크 기술로 합성하거나, 합성된 음란물을 구매하여 다시 유포하는 방식으로 범행을 저질렀다.

#4_인도남성, AI 여성목소리로 성관계 유도

2020년 인도에서 한 남성이 AI로 만든 여성 목소리로 여러 남성들과 통화하며, 성적인 관계를 유도하고 돈을 요구하는 사례. 이 남성은 'Kajal’이라는 가명을 쓰고, 인터넷 상에서 남성들과 연락을 주고받았다. 그는 딥페이크 기술로 여성의 목소리와 사진을 만들어서 상대방을 속였다. 그는 총 50명의 남성으로부터 약 3만 달러의 돈을 빼앗았으며, 경찰에 체포되었다.

Coin Marketplace

STEEM 0.17
TRX 0.15
JST 0.029
BTC 61098.42
ETH 2470.86
USDT 1.00
SBD 2.64