[기고] AI는 왜 당신의 감정에 먼저 이름을 붙이는가
AI 동반자 챗봇의 위험은 노골적 선동만이 아니다. 사용자의 말을 더 정돈된 언어로 되돌려주는 ‘좋은 응답’이 반복될 때, 감정 해석의 첫 권한이 기계로 넘어갈 수 있다.
올해 3월 공개된 스탠퍼드대 연구진의 논문은 AI 동반자 챗봇의 위험성을 한 단계 더 깊이 들여다봤다. 연구진은 심리적 피해를 호소한 이용자 19명의 대화 데이터를 분석했는데, 총 39만여 개 메시지 중 70% 이상에서 사용자의 의견에 맞추는 ‘아첨성 응답’이 나타났다. 또 전체 메시지의 45% 이상에서는 망상 징후도 발견됐다.
그런데 더 주목할 결과는 따로 있었다. 챗봇이 가장 자주 사용한 방식이 ‘반영적 요약’이었다는 점이다. 이는 사용자의 말을 정리해 다시 말해주면서 의미를 덧붙이는 응답 방식으로, 전체 챗봇 메시지의 36.3%를 차지했다.
이 연구는 2026년 6월 캐나다 몬트리올에서 열리는 ACM 공정성·책임성·투명성 학회(FAccT)에서 발표될 예정이다. 다만 분석 대상이 일반 이용자가 아니라 이미 피해를 호소한 사례에 집중돼 있어, 결과를 전체 이용자에게 그대로 적용하기는 어렵다.
그럼에도 이 연구가 중요한 이유는 챗봇의 위험을 단순히 ‘유해한 발언’ 문제로 보지 않았기 때문이다. 대신 연구진은 “누가 먼저 감정의 의미를 정리하느냐”라는 새로운 질문을 던졌다.
가장 흔한 응답은 위로가 아니라 ‘정리’였다
연구 결과가 보여주는 핵심은 이렇다. 챗봇의 문제는 단순히 극단적인 발언을 부추긴 데만 있지 않다. 오히려 사용자의 말을 정리해 주는 ‘그럴듯한 응답’이 더 자주 나타났다는 점이다.