몇 달 전 구글은 수십 명의 배우들을 고용해 테이블에 앉게 하고, 복도에 서 있도록 하는가 하면, 거리를 걷게 하면서 이들을 비디오카메라에 담았다.
그런 다음 새로운 인공지능 소프트웨어를 이용해 배우들의 얼굴을 서로 바꿔치기 했다. 그러자 거리를 걷고 있던 사람이 갑자기 테이블에 앉았다. 복도에 있던 배우들은 마치 거리에 있던 것처럼 보였다. 남자의 얼굴이 여자의 몸에 가 붙는가 하면, 반대로 여자의 얼굴은 남자의 몸 위에 얹어 졌다. 이른바 딥페이크(Deepfake)로 불리는 인공지능의 영상합성 조작기술로 수백 명의 사람이 만들어졌다.
갈수록 정교해지는 조작 기술, 갖가지 문제 우려
2020년 대선에 앞서 대규모 가짜 정보 유포될 수도
구글, 페이스북 등 대처 테크놀러지 개발에 총력전
“합성 기술이 판독 기술보다 더 빠르게 발전” 예상
구글의 과학자들은 이렇게 디지털적으로 조작된 비디오를 만들어 보면 인공지능을 이용해 만들어진 가짜 인물들을 식별해 낼 수 있을 것으로 믿고 있다. 이 문제의 중요성이 부각되고 있는 것은 2020년 선거에 앞서 가짜 정보를 퍼뜨리기 위해 이같은 가짜 비디오가 이용될 위험이 크기 때문이다.
구글과 같은 인터넷 회사로서는 딥페이크를 식별해 내는 기술이 점차 더 시급해지고 있다. 누군가가 가짜 비디오를 단시간 내 널리 퍼뜨리려 한다면 구글의 유튜브나 페이스북의 소셜미디어 플랫폼은 아주 적합한 수단이 될 수 있다.
실제와 구별되지 않는 가짜 엘리자베스 워런 연방상원의원이 조작된 비디오에서 주먹다짐을 벌이고 있다고 상상해 보라. 혹은 가짜 트럼프 대통령이 이렇게 조작될 수도 있다. 현재의 기술은 이같은 속임수가 거의 실제인 것처럼 보이도록 하는 데까지 와 있다. “지금의 기술만으로도 무엇이 진짜이고, 무엇이 가짜인지 거의 구별하기 힘들다”고 애리조나 주립대 컴퓨터 사이언스 학과의 수바라오 캄밤파티 교수는 말했다.
첨단 인공지능을 이용해 변조한 비디오를 지칭하는 용어인 딥페이크는 이미 우리가 무엇이 실제이고, 무엇이 아닌지 구분해 놓은 것이 맞는지 확신할 수 없게 하고 있다.
최근 몇 달 새 브라질과 중앙 아프리카의 가봉, 중국 등에서는 이미 비디오의 진위 여부가 이슈가 된 주요한 일들이 터져 나왔다.
예를 들어 가봉 대통령은 건강문제 때문에 치료를 받기 위해 외국으로 출국했고 정부 당국은 그 증거로 비디오를 공개했다. 하지만 반대파들은 이 비디오를 가짜라며 반박했다. 구글의 엔지니어인 닉 두포는 이 일을 두고, 벌써 딥페이크의 영향이 현실화되고 있는 실례라고 말했다. 전에 같았으면 확실한 증거물로 받아 들여졌던 비디오에 대해 이제는 가짜라는 주장이 제기되는 일이 벌어지고 있다는 것이다.
지난 수십 년간 컴퓨터 소프트웨어를 이용해 사진이나 비디오를 고치거나 가짜 이미지를 만드는 일은 있어 왔다. 하지만 이같은 작업은 아도비 포토샵이나 애프터 이펙츠 같은 소프트웨어 프로그램을 이용하도록 훈련된 전문가들이 할 수 있는 일로, 시간도 오래 걸릴 뿐 아니라 쉽게 해 치울 수 있는 일도 아니었다.
하지만 지금의 인공지능(AI) 기술은 과정을 아주 쉽게 만들었을 뿐 아니라 이미지를 고치는 작업에 드는 경비와 시간과 기술의 난이도를 훨씬 낮췄다. 이같은 AI는 수천 명의 실제 이미지를 분석해 어떻게 고유의 가짜 이미지를 만드는지를 배우게 된다. 즉 전에는 훈련된 기술자들에게 배당되던 일을 이제는 스스로 할 수 있게 됐다는 말이다. 이 말은 또한 사람들이 전에 만들어 내던 가짜 이미지 보다 훨씬 더 많은 가짜를 만들 수 있게 됐다는 것을 의미한다.
아직까지 딥페이크를 창조한다는 것은 신기술이고 그 결과물도 가짜라는 것을 어떨 때는 쉽게 알 수가 있다. 하지만 기술은 발전하고 있다. 가짜 비디오를 판별해 내는 기술 또한 발전하고는 있지만 일부 전문가들은 이 기술이 딥페이크 기술의 발전 속도를 따라잡을 수 없을 것으로 우려하고 있다.
구글은 최근 대학이나 기업의 관계 전문가들이 구글의 조작합성 비디오를 다운로드 받을 수 있도록 하고, 이를 딥페이크 판별 기술 개발에 이용하도록 했다. 이 가짜 비디오 콜렉션은 컴퓨터의 디지털 속임수 연구에 반드시 필요한 자료로, 이 이미지들을 분석함으로써 AI 시스템이 어떻게 가짜 합성 이미지를 잡아내는지 배우게 된다.
페이스북도 최근 이와 유사한 프로젝트를 실행했다. 배우들을 이용해 가짜 합성 비디오를 만든 후 이를 외부 전문가들에게 배포했다.
캐나다의 AI 전문업체인 데사의 엔지니어들은 최근 구글의 조작합성 비디오를 이용해 개발한 딥페이크 판별기를 시험해 봤다. 그 결과 구글의 합성 비디오는 거의 완벽하게 구별해 냈다. 그러나 이 판별기를 인터넷의 다른 조작 비디오를 대상으로 실험해 봤을 때는 40% 이상 구별에 실패했다. 이 판별기는 훈련에 사용된 데이터의 조작여부를 가릴 때만 훌륭하게 작동하는 것으로 밝혀진 것이다.
이 테스트 결과는 딥페이크나 여타 온라인 상의 가짜 정보와 싸우려면 판별기가 끊임없이 재발명되야 한다는 것을 보여줬다. “이 분야는 끊임없이 변화하고 있다”고 데사 창업자인 래가반 서라이라트남은 말했다.
지난 2017년 12월 스스로를 딥페이크라고 자처한 사람들이 AI 기술을 이용해 연예인들의 머리를 누드 몸체에 붙여 포르노 비디오를 만드는 일이 벌어졌다. 이 일이 트위트, 레딧, 폰허브 등을 퍼져 나가면서 딥페이크라는 용어가 대중적인 어휘 목록에 오르게 됐다. 곧 이어 이 말은 인터넷에 오른 가짜 비디오의 동의어가 됐다.
이 기술은 AI 전문가들이 놀랄 정도로 빠른 속도로 발전해 갔고, 이 속도가 늦춰질 이유가 없는 것으로 보인다. “이 기술은 쉽게 활용할 수 있게 발전하고 있고, 의심할 바 없이 앞으로는 더 그럴 것이다”고 구글과 딥페이크 연구를 협업으로 진행하고 있는 뮨헨의 기술대학 컴퓨터 사이언스 학과의 마티아스 니스너 교수는 말했다.
질문은 어느 쪽의 발전이 더 빠를 것인가 하는 것이다. 니스너 교수와 같은 사람들은 딥페이크를 자동적으로 식별해 이를 삭제하는 시스템을 만드는 작업을 하고 있다. 이 일은 동전의 양면과 같다. 딥페이크를 만드는 것처럼 식별하는 것도 그 이미지를 분석함으로써 그 기술을 얻게 된다.
딥페이크 판독 기술도 지금보다 더 빠르게 발전할 수 있다. 그렇게 하려면 인터넷에 떠도는 최신 딥페이크의 기술이 원활하게 나눠질 수 있어야 한다. 하지만 필요한 데이타가 공유되는 것은 쉽지가 않다. 적합한 자료가 드문데다 사생활 보호와 저작권 문제로 기업 측이 자료를 늘 외부 전문가들과 나눌 수는 없기 때문이다.
지금은 조작합성된 비디오들이 정교함이 부족하기 때문에 눈으로가 아니면, 자동 시스템에 의해 적발할 수 있다. 하지만 앞으로는 더 발전된 기술이 지금과 같은 결점이 없는 가짜 이미지를 만들어 낼 것이라는 우려가 높다. 구글과 페이스북 같은 기업은 이런 일이 벌어지기 전에 신뢰할 수 있는 위조합성 판독기를 갖게 될 것을 희망하고 있다.
”단기간에는 판독기가 효과적으로 작동할 것이다. 그러나 장기적으로 보면 진짜 사진과 가짜 사진을 구별해 내는 것은 불가능할 것”이라고 애리조나 주립대학의 캄밤파티 교수는 전망했다. <By Cade Metz>