이메일과 문자로 부모에 통보
인스타그램이 청소년 사용자가 자살이나 자해와 명확하게 연관된 단어를 반복적으로 검색할 경우, 부모에게 이를 즉시 알리는 강력한 보호 조치를 도입한다고 26일 발표했다.
이번 알림 서비스는 인스타그램의 '부모 감독 프로그램'에 가입한 부모들을 대상으로 시행된다. 인스타그램 측은 이미 청소년 계정의 검색 결과에서 이러한 유해 콘텐츠가 노출되지 않도록 차단하고 있으며, 대신 도움을 받을 수 있는 헬프라인으로 연결하는 조치를 시행 중이라고 설명했다.
이번 발표는 메타(Meta)가 아동 유해성 문제와 관련해 두 건의 주요 재판을 치르고 있는 가운데 나왔다. 현재 로스앤젤레스에서 진행 중인 재판은 메타의 플랫폼이 의도적으로 미성년자를 중독시키고 해를 끼쳤는지를 다루고 있으며, 뉴멕시코주에서의 또 다른 재판은 메타가 플랫폼 내 성 착취로부터 아동을 보호하는 데 실패했는지를 규명하고 있다.
부모에게 전달되는 알림은 부모의 연락처 정보에 따라 이메일, 문자 메시지, 또는 왓츠앱(WhatsApp)으로 전송되며, 부모의 인스타그램 계정을 통해서도 통보된다. 메타는 블로그 게시물을 통해 "우리의 목표는 청소년의 검색 기록이 지원이 필요함을 시사할 때 부모가 개입할 수 있도록 권한을 부여하는 것"이라며 "다만 불필요한 알림을 남발하여 알림의 유용성을 떨어뜨리는 상황은 피하고자 한다"고 덧붙였다.
또한 메타는 청소년들이 인공지능(AI)과 나누는 상호작용에 대해서도 유사한 부모 알림 기능을 준비 중이라고 밝혔다. 메타 측은 "청소년이 우리 AI와 자살 또는 자해와 관련된 특정 유형의 대화를 시도할 경우 부모에게 알림이 갈 것"이라며 "이는 매우 중요한 작업이며 향후 몇 달 내에 더 자세한 내용을 공유할 예정"이라고 전했다. 박요셉 기자

















