An AI is training counselors to deal with teens in crisis

위기 청소년 상담을 돕는 인공지능

성소수자 청소년을 위한 상담 기관인 트레버 프로젝트는 고민에 빠진 십대들을 지원하기 위해 GPT-2 챗봇으로 눈을 돌렸다. 하지만 여전히 한계는 있다.

트레버 프로젝트 (Trevor Project)에서 자원봉사 하는 상담원들은 자살을 생각하는 청소년 성소수자와 상담할 준비가 되어 있어야 한다. 그래서 우선 연습이 필요하다. 연습 방법 중 하나는 기분이 다소 안 좋고 우울한 노스캐롤라이나 출신의 16세 ‘라일리(Riley)’ 같은 가상의 인물과 이야기하는 것이다. 라일리 역을 맡은 팀원과 대화를 함으로써 상담 훈련을 받는 사람들은 상황을 파악할 수 있다. 그들은 라일리가 가족에게 성 정체성을 밝히는 것에 대해 고민하고 있으며, 최근 친구들에게 털어놓았지만 결과가 좋지 않았고, 예전에 자살 충동을 느낀 적이 있음을 알아낸다.

현재 라일리 역할은 트레버 프로젝트 직원이 하지 않고, AI가 대신 한다.

AI ‘라일리’는 트레버 프로젝트 상담원과 직원 사이의 수천개의 역할극 대본으로 훈련받았다. 수습 상담원들은 마치 진짜 사람을 대하듯 AI 라일리를 달래 마음을 열게 해야 한다. 라일리를 상대하며 그들이 배운 성소수자 청소년 상담법을 시험해 볼 수 있다.

상담원들은 라일리에게 마음을 털어놓으라고 강요해서는 안 된다. 대신에 라일리의 감정을 확인하고, 필요할 경우 안전을 지킬 수 있는 계획을 세우도록 돕는다.

위기 상담 핫라인과 채팅 서비스는 ‘손을 내밀면, 도움을 제공할 수 있는 진짜 사람과 연결해준다’는 기본적인 약속을 제공한다. 그러나 가장 잘 운영되는 서비스라도 수요가 감당이 안될 때가 있다. 트레버 프로젝트에 따르면, 매년 180만 명의 미국 성소수자 청소년들이 자살을 심각하게 고려한다. 기존의 채팅 기반 서비스 상담원 600명으로는 이 수요를 감당할 수 없다. 증가하는 수요에 대처하기 위해 트레버 프로젝트는 여러 정신건강 단체와 마찬가지로 AI 기반 도구로 눈을 돌렸다. 이는 타당한 대안으로 평가된다. 하지만 현재 수준의 AI 기술로 취약 계층의 생명이 위태로운 상황에 얼마나 잘 대처할 수 있을지 의구심도 크다.

인공지능, 위험도를 평가하다

트레버 프로젝트는 이러한 문제점을 이해하고 있다. 이들은 라일리가 할 수 있는 것이 아니라 하지 않는 일을 강조한다.

트레버 프로젝트의 AI 및 엔지니어링 책임자 댄 픽터(Dan Fichter)는 “우리는 1) 상담원을 대신할 AI 시스템이나 2) 위기에 처할 가능성이 있는 사람과 직접 상호작용하는 AI 시스템 설계에 나선 적 없고 지금도 하지 않고 있다”고 말한다. 인간 관계는 모든 정신건강 서비스 분야에서 중요하지만, 트레버 프로젝트 서비스 대상자에게 특히 중요할 수 있다. 2019년 트레버 프로젝트 자체 조사에 따르면, 자신을 받아들여주는 성인이 주변에 한 명만 있어도 청소년 성소수자의 자살 시도 확률은 40% 줄었다.

위기 접촉 시뮬레이터(Crisis Contact Simulator)란 이름의 이 AI 기반 훈련 역할극은 트레버 프로젝트가 이런 방식으로 개발한 두번째 프로젝트이다. 구글에서 자금과 기술 지원을 받았다. 또 머신러닝 알고리즘은 가장 자살 위험이 높은 사람을 찾아내는 데도 쓰인다. (AI를 사용하지 않는 방법 등 몇 가지 다른 방식을 시도했는데, 알고리즘이 도움이 시급히 필요한 사람이 누구인지 가장 정확히 예측했다.)

AI 기반 위험 평가는 자살 예방을 위해 이전부터 활용되었다. 지난해 뉴욕타임스가 보도한 바와 같이, 미국 보훈부(Department of Veterans Affairs)도 임상 실습에서 머신러닝을 활용해 위기를 겪는 참전 용사를 식별한다.

이런 방식으로 AI를 이용할 경우의 유용성, 정확성, 위험성에 대해서는 의견이 분분하다. 자살 행동을 연구하는 토마스 조이너(Thomas Joiner) 플로리다주립대 심리학 교수는 “특정 환경에서는 AI가 사람보다 더 정확하게 자살 위험을 판단할 수 있다”고 주장한다. 더 많은 변수를 고려해야 하는 현실 세계에서는 AI가 인간 정도의 성능을 발휘하는 것으로 보인다. 그러나 AI는 더 많은 사람을 더 빠르게 평가할 수 있다.

따라서 AI는 인간 상담원을 대체하는 것이 아니라 이들을 돕는 데 활용하는 것이 가장 좋다. 트레버 프로젝트는 자신들이 상담하는 청소년에 대한 종합 위험 평가를 수행할 때 여전히 사람의 판단에 의존한다. 상담원이 라일리와 역할극을 마치면, 사람이 이 녹취본을 검토한다.

AI 활용 상담 훈련, 이렇게 한다

위기 접촉 시뮬레이터를 개발한 이유는 직원들이 역할극에 너무 많은 시간을 빼앗기기 때문이다. 또 역할극은 업무 시간에만 가능한 반면, 자원봉사자들은 대부분 밤과 주말에 활동하기 원했기 때문이다. 상담원 훈련 속도를 높이고 자원봉사자가 더 편리하게 일정을 맞추려는 목적으로 개발되기는 했지만, 효율성이 유일한 목표는 아니었다. 개발자는 역할극이 자연스럽게 느껴지고, 챗봇이 자원봉사자의 실수에 민첩하게 적응하기를 바랬다. 최근 인간 대화를 모방하는 성능이 급발전한 자연어처리 알고리즘이 유용할 것으로 판단했다. 몇 가지 옵션을 테스트한 후, 트레버 프로젝트는 오픈AI의 GPT-2 알고리즘을 사용하기로 했다.

이들의 챗봇은 GPT-2를 기반으로 한다. 이 모델은 4500만 페이지의 웹사이트에서 영어의 기본 구조와 문법을 학습했다. 이후 트레버 프로젝트는 이전의 모든 라일리 역할극 녹취본으로 챗봇을 추가 훈련시켰다. 이 기록은 챗봇이 사람을 흉내 내는 데 필요한 자료를 제공한 셈이다.

개발 과정 전반에 걸쳐 트레버 프로젝트 팀은 챗봇의 뛰어난 성능에 놀라움을 금할 수 없었다. 라일리의 약력과 관련하여 상세 내용을 저장한 데이터베이스는 없지만, 모든 대화가 같은 줄거리를 반영하기 때문에 챗봇은 일관성을 유지했다.

그러나 특히 취약 계층이 민감한 상황에 놓여 있을 때 AI 사용은 부정적 측면도 있다. GPT-2나 이와 비슷한 자연어 알고리즘은 인종차별, 성차별, 동성애 혐오 등을 내포하고 있다. 이렇게 잘못된 방향으로 엇나간 챗봇이 몇몇 있다. 최근에는 20세 대학생으로 설정된 이루다라는 한국의 챗봇이 있었다. 이루다는 빠르게 인기를 얻고 점점 사용자가 늘었지만, 이내 퀴어 커뮤니티와 장애인 커뮤니티를 비방하는 발언을 하기 시작했다.

트레버 프로젝트는 이 점을 인식하고 문제 발생 가능성을 차단하는 방법을 마련했다. 이루다는 어떤 주제에 대해서도 사용자와 대화가 가능하지만, 라일리는 대화 범위가 굉장히 좁다. 자원봉사자들은 라일리가 훈련받은 대화에서 너무 크게 벗어나지 않을 것이며, 이는 곧 예측불가능한 행동을 할 위험을 최소화한다.

덕분에 트레버 프로젝트가 현재 진행 중인 챗봇 종합 테스트도 더 쉬워졌다. 딥마인드 네나드 토마셰프(Nenad Tomasev) 연구원은 “이 테스트는 상당히 전문화되고 명확하며, 포괄적으로 설계된 사례를 이용하고, 위험도가 크지 않다”고 말한다.

인간 대 인간

정신 건강 분야에서 사람을 해치지 않으면서, 포괄적이고 윤리적인 도움을 제공하기 위해 AI의 잠재력을 이용하려 한 것은 이번이 처음이 아니다. 시청각 신호를 조합하여 우울증을 탐지하는 기술도 개발되었다. 인간 전문가와는 다르지만, ‘치료 봇’은 전문가의 치료를 받을 상황이 안 되거나 사람에게 털어놓기 불편한 경우를 위한 대안으로 각광받고 있다.

이러한 상황을 맞아, 우리는 취약한 처지의 사람을 치료함에 있어 이러한 AI 도구가 얼마나 많은 역할을 해야 할 지 고민할 필요가 있다. 현 시점에서는 AI가 인간의 도움을 대체하기는 적합하지 않다는 공감대가 형성되고 있다.

그러나 조이너 교수는 이런 생각이 시간의 흐름에 따라 변할 수 있다고 주장한다. 그는 인간 상담원을 AI로 대체하는 것이 현재로서는 좋은 생각은 아니지만, “그렇다고 해서 영구적으로 제한된다는 의미는 아니다”라고 말한다. 사람들은 이미 AI 서비스와 인공적인 우정과 관계를 쌓고 있다. 조이너 교수는  “AI와 말하면서 사람과 대화하고 있다고 속지 않는 한, 언젠가는 가능성이 있지 않을까”라고 밝혔다.

라일리가 트레버 프로젝트에 도움을 청하는 문자메시지를 보내는 실제 젊은이들을 마주칠 일은 없을 것이다. 라일리는 자원봉사자를 위한 훈련 도구일 뿐이기 때문이다. 트레버 프로젝트의 데이터 및 AI 제품 책임자인 켄드라 건트(Kendra Gaunt)는 “상담원과 우리에게 손을 내미는 사람들 사이의 인간 대 인간 관계는 우리가 수행하는 모든 일에 반드시 필요하다. 인간 관계야말로 우리를 특별하게 만드는 것이며, 어느 누구도 이 관계가 다른 것으로 교체되거나 바뀌기를 바라지 않는다”고 말한다.

미리보기 3회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.