AI 챗봇 경쟁에 뛰어든 구글이 직원들에게 챗GPT와 같은 생성형 인공지능(AI) 사용에 주의를 당부하고 나섰다. 구글 모회사인 알파벳은 직원들에게 생성 AI에 회사 기밀 정보를 입력하지 말라고 경고했다고 로이터 통신이 4명의 소식통을 인용해 16일 보도했다.
구글이 경고한 생성 AI에는 전 세계적으로 큰 인기를 끌고 있는 오픈AI의 챗GPT와 함께 자사가 개발한 생성 AI 바드도 포함됐다.
구글은 최근 업데이트한 개인정보보호 지침에서도 “바드와 대화하는데 있어 비밀이 유지돼야 하거나 민감한 정보는 넣지 말라”고 했다고 소식통은 전했다.
이는 AI 개발 회사들이 이용자들이 보낸 메시지를 사용해 AI 챗봇의 언어 이해를 훈련시키기 때문이다. 이에 AI 개발 회사가 이용자의 채팅을 읽고 이용자 회사의 내부 정보를 볼 수 있고, 또 AI가 이를 스스로 복제하거나 유출할 수 있는 것으로 알려졌다.
앞서 월마트나 MS, 아마존 등도 구글과 같이 직원들에게 회사 중요 정보 유출과 관련해 경고를 한 바 있다. 챗GPT가 자사 내부 정보와 비슷한 답을 내놓는 것이 발견됐기 때문이라고 로이터 통신은 설명했다.