애플이 클라우드 서비스인 아이클라우드에 업로드되는 아동 착취 음란 사진을 자동 탐지해 대응하는 시스템을 준비 중이라고 월스트리트저널(WSJ)과 CNBC 방송 등이 5일 보도했다.
이에 따르면 애플은 이를 위해 새로운 아이폰 소프트웨어를 개발했다.
이 소프트웨어는 아이클라우드에 업로드되는 콘텐츠 가운데 아동을 성적으로 착취한 음란물 사진을 포착해 이를 의회 승인에 따라 설립된 비영리 민간단체인 실종학대아동방지센터(NCMEC)에 통보할 수 있다.
애플은 이날 새 시스템에 대한 테스트에 돌입했으며, 소프트웨어는 연내 아이폰 운영체제(iOS) 15의 업데이트를 통해 배포될 예정이다.
이 시스템은 암호화와 인공지능(AI) 기술을 적용해 아이클라우드에 업로드된 이미지를 특정한 숫자로 변환하는 ‘해싱’이라는 과정을 통해 음란물 여부를 판단한다.
이는 스마트폰을 둘러싼 이용자들의 사생활 보호 요구와 아동 음란물을 비롯한 불법 활동에 대한 법집행 당국의 감시 요구 간에 벌어진 간극을 좁히려는 애플의 시도라고 저널은 풀이했다. 애플은 이 시스템을 통해 회사 서버에 대한 광범위한 이미지 검색 필요성을 피할 수 있고 아이폰의 암호화 시스템에는 변화가 없어 사용자들이 자신의 기기에 사생활 자료를 온전하게 보관할 수 있다고 강조했다.