남학생들이 교내 여학생들 사진으로 딥페이크 이미지 만들어
"기술 발달로 딥페이크 사진 악용 가능성 커져"
미국의 한 고등학교에서 남학생들이 인공지능(AI) 기술을 이용해 여학생들에 대한 성적인 딥페이크 이미지를 만들어 유포하는 사건이 발생했다.
2일 월스트리트저널(WSJ)에 따르면 뉴저지주(州) 웨스트필드 고등학교에서 2학년 남학생 여러 명이 AI를 활용해 교내 여학생들의 딥페이크 나체 사진을 만들어 유출하다가 지난달 발각됐다.
딥페이크는 딥러닝과 페이크(fake)의 합성어로, AI를 기반으로 얼굴 등을 실제처럼 조작한 이미지나 영상을 뜻한다.
이들 남학생은 온라인에서 여학생들 사진을 찾은 다음 AI로 나체 사진을 만든 뒤 그룹 채팅으로 다른 남학생들과 이를 공유한 것으로 드러났다.
이런 범죄 행위는 지난달 중순 한 남학생이 일부 여학생에게 해당 사실을 알려주면서 드러났다.
여학생들은 학교 당국에 이를 보고했고 학교는 이 사건과 관련된 것으로 추정되는 남학생들 면담을 시작했다.
피해 여학생 가운데 4명이 신고하면서 경찰 당국도 수사에 착수했다.
정확히 남학생 몇 명이 이 사건에 연루됐는지, 이들이 징계받았는지 여부는 아직 확인되지 않았다.
학교 측은 문제의 딥페이크 이미지가 삭제돼 더 이상 유포되지 않는다고 밝혔으나 여학생들은 이미 극심한 정신적 피해를 입었다고 WSJ은 전했다.
미국에서는 이전부터 딥페이크 기술에 대한 우려가 제기돼왔다.
예컨대 도널드 트럼프 전 미 대통령이 체포되는 딥페이크 이미지, 조 바이든 미 대통령이 성소수자에게 폭언하는 딥페이크 영상 등이 진짜인 것처럼 유포돼 논란이 일기도 했다.
전문가들은 기술 발달로 딥페이크 이미지 만들기가 갈수록 쉬워지면서 범죄에 악용될 가능성도 커졌다고 지적한다.
AI로 생성된 이미지를 구분해주는 서비스 '리얼리티 디펜더' 최고경영자(CEO) 벤 콜먼은 "몇 년 전까지만 해도 (딥페이크) 이미지를 만들려면 컴퓨터 몇 대가 필요했지만 이제는 아이폰 1대만 있으면 된다"고 말했다.
딥페이크 사진 대부분이 음란물에 쓰인다는 점도 문제다.
실제 이미지 탐지 회사 '센시티 AI'는 딥페이크 이미지의 90% 이상이 포르노와 관련돼 있다고 분석했다.
이런 가운데 바이든 대통령은 지난달 자신의 딥페이크 영상을 본 경험을 소개하면서 AI 규제 등 내용을 담은 행정명령에 서명하기도 했다.
<연합뉴스>