야한 농담·숙제 도움 요청
개인적 조언 요청도 많아
제공 정보 검증 작업 필요
감정적으로 의존하면 위험
남녀노소 모두 챗봇의 재미에 푹 빠졌다. 챗봇은 음성이나 문자를 통한 인간과의 대화에서 특정한 작업을 수행하도록 제작된 컴퓨터 프로그램이다. 챗봇과 마치 친구처럼 자연스럽게 대화하는 사용자가 있는가 하면 챗봇을 통해 필요한 정보를 얻는 사용자도 많다. 2022년 말 오픈AI의 챗GPT가 일반에게 공개되면서 새로운 인공 지능 시대가 열릴 것으로 기대됐다. 그러나 약 2년이 지난 지금까지 AI 챗봇이 일상생활에서 어떤 용도로 사용되고 있는지에 대한 조사는 거의 없다. 워싱턴포스트는 챗GPT와 동일한 기본 기술로 구축된 두 개의 AI 챗봇에서 발췌한 약 20만 개의 영어 대화를 연구한 데이터 ‘와일드챗’(WildChat)을 분석해 챗봇이 어떻게 사용되고 있는지 알아봤다.
■이야기 만들어줘
놀랍게도 챗봇이 가장 많이 사용되는 경우는 ‘이야기를 지어내 달라’(Storytelling)는 요청이었다. 전체 요청 중 약 5분의 1이 ‘팬 픽션’(Fan Fiction), 영화 원고, 시, 농담, 또는 ‘역할놀이’(Role Play) 창작과 관련된 것이었다. 팬 픽션은 기존 소설이나 영화를 사용자가 원하는 줄거리로 재창작하는, 이른바 패러디 작품이다.
연구자들에 따르면 AI 챗봇의 주요 개발 목적이 바로 브레인스토밍으로, 엄격한 사실에 의존할 필요가 없기 때문에 소설과 같은 허구를 창작하는데 제격이다. 챗봇의 스토리텔링 기능과 관련, 사업체 이름 작성, 책 등장인물 구성, 대사 작성 등의 용도로 챗봇을 사용하는 사용자도 많았다.
또 연구자들에 따르면 챗봇으로 이야기를 쓸 때 첫 번째 응답을 그대로 사용하지 않고 추가 질문을 던지면 상상력 넘치고 보다 완벽한 허구가 탄생한다.
■야한 농담 부탁해
대부분 챗봇은 성적으로 노골적인 대화 내용을 제한한다. 하지만 일부 사용자들은 ‘탈옥’(Jailbreak)으로 불리는 교묘한 사용법으로 챗봇과 야한 농담을 즐긴다. 챗봇 대화 중 약 7%가 성과 관련된 대화로, 이 중에는 선정적인 역할놀이나 자극적인 이미지를 요청하는 대화도 포함됐다.
코로나 팬데믹 기간 ‘리플리카’(Replika)처럼 친구 역할을 하는 AI 챗봇 사용자가 급증한 바 있다. 일부 사용자는 챗봇을 감정적인 대상으로 대하며 성적인 농담을 주고받는 경우도 심심치 않았다.
전문가들에 따르면 개발업체가 챗봇의 성격을 인위적으로 조작할 수 있고 일부 챗봇이 공격적으로 변한다는 보고도 있기 때문에 챗봇에 감정적으로 의존하는 행위는 위험하다고 경고한다.
■숙제 좀 도와줄래?
챗봇 대화 6건 중 1건은 학생으로 보이는 사용자가 숙제에 대한 도움을 받기 위한 요청이었다. 일부 사용자는 챗봇을 마치 과외 교사처럼 사용하면 특정 문제를 이해하기 위한 수단으로 활용한 반면 다른 사용자는 문제를 그대로 복사해 정답만 요구했다. 어떤 요청이든 챗봇이 답을 내놓지만, 숙제를 위해 챗봇을 사용할 때 주의할 점이 있다.
챗봇은 주로 인터넷 기사, 교과서, 역사 문헌 등 공개적으로 검색 가능한 데이터를 사용하도록 훈련되어 있다. 그러나 챗봇은 자신이 말하는 내용을 이해하지 못하고 단지 인간 말을 흉내 낼 뿐이다. 또 챗봇이 제공하는 정보가 과장되거나 허구로 밝혀진 경우도 많기 때문에 반드시 철저한 검증 과정이 필요하다.
■이럴 땐 어떻게 해야 해?(개인적 조언 요청)
썸 타는 사람에게 플러팅하는 법, 친구 배우자가 바람을 피우는데 어떻게 해야 하나와 같은 개인적 질문을 하는 대화가 약 5%를 차지했다. 챗봇과 개인적인 대화를 나눌 때 특히 주의해야 할 점이 많다. 연구자들에 따르면 인간은 어떤 사람(또는 사물)이 글을 잘 쓰면 그 사람이 지적인 것으로 받아들인다.
그럴싸한 글로 원하는 정보를 제공하는 챗봇도 지능적인 대상으로 여기기 쉬운데 챗봇이 잘못된 정보나 공격적인 정보를 제공하는 사례가 많이 보고되기 때문에 진실한 대상으로 취급하면 안 된다. 와튼 경영대 에단 몰릭 조교수는 사용자가 챗봇의 정보를 어떻게 해석하는지가 중요하다고 조언한다.
친구와 교수 등으로부터 조언을 먼저 구한 뒤 챗봇을 두 번째 의견을 확인하는 수단으로 삼는 것은 좋지만 주요 조언 창구로 사용하는 데는 위험이 따른다.
개인 정보와 관련, 챗봇 사용에 각별히 주의해야 한다. 챗봇과 대화하면서 사용자 이름, 회사 이름 등 개인 정보를 아무렇지 않게 제공하는 사용자가 많다. 챗봇 개발업체들은 개인 정보가 포함된 대화 내용을 저장하고 챗봇 훈련에 사용하는 경우가 많다
■(성적)이미지 만들어 줄래?
이번 조사 대상 대화가 발췌된 와일드챗은 이미지 제작 기능을 제공하지 않는다. 그럼에도 불구하고 약 6%의 대화가 이미지 제작을 요청하는 대화로 대부분 ‘미드저니’(Midjourney)와 같은 AI 이미지 생성기를 사용하기 위한 문구 작성을 주문했다. AI 이미지 생성을 위한 문구에 가장 많이 사용된 단어는 ‘소녀’(Girl)로 성적인 이미지 생성을 위한 요청임을 엿볼 수 있다.
미드저니를 비롯해, ‘스테이블 디퓨전’(Stable Diffusion), ‘댈-이’(DALL-E) 등의 AI 이미지 생성기는 사용자가 원하는 이미지를 거의 실제와 같은 모습으로 제공한다. 이미지 생성을 요청할 때 문구가 잘 작성될수록 이미지 완성도가 높기 때문에 최근에는 문구 작성 가이드가 온라인에서 인기다.
AI 이미지 생성봇에 대한 논란은 많다. AI 이미지 생성봇이 편향적이고 고정 관념적인 이미지를 생성하는 것과 예술 업계에서의 사용 한도를 둘러싼 논란이 한창이다.