특정인 목소리를 감쪽같이 복제하는 생성형 인공지능(AI)이 보이스피싱에 활용되면서 피해 사례가 늘고 있다고 미 매체 악시오스가 13일 보도했다.
미 컴퓨터 바이러스 백신 업체 맥아피에 따르면 생성형 AI를 사용할 경우 3초 분량의 목소리 샘플만 있어도 이를 완벽히 복제해 특정인 말투, 문장 등을 구현할 수 있다.
이 때문에 미국에서는 금융당국 등을 사칭하던 보이스피싱 조직이 이제는 범죄 대상자의 지인을 사칭하고 있다.
가족, 친구, 연인 등의 목소리를 구현한 생성형 AI로 교통사고, 강도 등 급한 상황이 생겼다면서 돈을 보내달라고 요구하는 식이다.
미리 준비한 말을 일방적으로 전달하는 것을 넘어 생성형 AI로 복제한 목소리로 실시간 대화를 할 수도 있다고 악시오스는 전했다.
생성형 AI 관련 애플리케이션(앱) 등을 활용하면 보이스피싱 범죄자가 입력하는 문장을 AI가 즉시 목소리로 구현한다는 설명이다.
실제 맥아피가 올해 1월 27일∼2월 1일 사이 전 세계 18세 이상 성인 7천 명을 대상으로 조사한 결과 응답자의 70%는 AI로 구현된 목소리와 실제 목소리를 구별할 수 없다고 답했다.
이런 상황에서 사람들은 AI 보이스피싱에 감쪽같이 속고 있다.
응답자의 10%는 AI 보이스피싱을 겪은 적 있다고 답했으며 이 가운데 77%는 실제로 돈을 잃었다고 밝혔다.
이들 피해자 중 3분의 1 이상은 1천 달러(약 127만 원) 이상 피해를 봤다고 한다.
스티브 그롭먼 맥아피 부사장은 "음성 복제는 사용하기 매우 쉬운 수단이다. 범죄자는 AI 관련 전문 지식이 없어도 이를 활용할 수 있다"고 경고했다.
전문가들은 전화 통화 시 지인과 본인만 아는 암호어를 만들어두는 것이 AI 보이스피싱을 예방하는 데 도움이 된다고 조언했다.
의심이 갈 경우 전화를 일단 끊고 다시 거는 것도 좋은 방법이라고 악시오스는 전했다.
<연합뉴스>