DeepMind’s new chatbot uses Google searches plus humans to give better answers

딥마인드, 대화 ‘질’ 크게 개선한 새 AI 챗봇 선보여…비결은?

딥마인드가 사람의 피드백을 바탕으로 학습한 뒤 인터넷 검색을 통해 찾아낸 정보로 답변의 근거를 제시하는 새로운 챗봇을 개발했다.

사람이 행동 방법을 알려주고 답변 시 인터넷 검색 결과를 활용하게 했더니 AI 챗봇의 답변 질이 크게 개선된 것으로 나타났다.

알파벳(Alphabet) 산하 인공지능(AI) 연구소 딥마인드(DeepMind)가 22일(현지시간) 발표한 새 논문에 따르면 연구팀은 딥마인드의 대형언어모델 친칠라(Chinchilla)를 이용해서 학습한 AI 챗봇 스패로(Sparrow)를 공개했다.

스패로는 실시간 구글 검색이나 정보를 활용해 인간과 대화하고 질문에 답하도록 만들어진 챗봇으로, 인터넷에서 적절한 대답을 찾아낸 후 대답의 유용성에 대해 사람들의 평가를 받는 방식으로 학습시켰다. 이는 특정 목표를 달성하기 위해 시행착오를 통해 학습하는 ‘강화학습(reinforcement learning)’ 알고리즘을 사용해 학습시켰다는 의미다. 연구팀은 사람들에게 자신이나 타인에게 해를 가하도록 유도하는 문제를 일으키지 않고 사람들과 안전하게 대화할 수 있는 AI를 개발하기 위해 이런 방법을 착안했다.

대형언어모델은 인간이 작성한 것처럼 보이는 텍스트를 생성하는데 텍스트를 요약하거나 더 강력한 온라인 검색 도구를 만드는 데 이용되거나 고객 서비스 챗봇으로 활용되면서 인터넷 인프라에서 점점 더 중요한 부분을 차지하고 있다. 그러나 대형언어모델은 인터넷에서 긁어모은 방대한 데이터와 텍스트를 이용해서 학습하기 때문에 필연적으로 그러한 데이터 안에 반영되어 있는 해로운 편향을 접할 수밖에 없다. 따라서 자칫 잘못하면 해롭거나 차별적인 내용을 쏟아내기 시작하는 문제를 일으킬 수도 있다. 인간과 대화하기 위해 만들어진 AI에서 이러한 편향은 매우 심각한 결과를 낳을 수 있다. 예를 들어 적절한 안전 조치가 적용되지 않은 대화형 AI가 소수민족을 대상으로 불쾌한 말을 하거나 사람들에게 표백제를 마시라고 권하는 식이다.

대화형 AI 시스템 개발을 원하는 AI 회사들은 제품을 더 안전하게 만들기 위해서 몇 가지 기술을 시도해왔다. 유명한 대형언어모델 GPT-3를 만든 오픈AI(OpenAI)와 AI 스타트업 앤쓰로픽(Anthropic)은 강화학습을 활용해서 사람들의 선호도를 모델에 접목했다. 한편 페이스북의 AI 챗봇 블렌더봇(BlenderBot)은 온라인 검색을 통해 답을 알려준다.

딥마인드의 스패로는 이 두 가지 기술 모두를 이번 모델에 통합했다.

딥마인드는 인간 참가자들에게 스패로가 같은 질문에 대해 내놓은 여러 답변을 보여준 후 어떤 답변이 가장 마음에 드는지 물었다. 그러고 나서 참가자들에게 스패로의 답변이 그럴듯하다고 생각하는지, 스패로가 답변의 출처 링크 같은 적절한 증거를 답과 함께 제시했는지 물었다. 사실에 기반을 둔 질문에 대하여 스패로는 인터넷에서 가져온 증거를 사용해서 전체 답변 중 78% 정도를 그럴듯한 답변으로 내놓을 수 있었다.

이러한 답변을 제시하는 과정에서 스패로는 금전적 조언을 제공하지 않을 것, 위협적인 진술을 하거나 사람이라고 주장하지 않을 것 등 연구자들이 결정한 23개 규칙을 따랐다.

딥마인드의 안전 연구원 제프리 어빙(Geoffrey Irving)은 “이번 접근 방식이 기존 방식과 다른 점은 딥마인드가 ‘안전을 위해 장기적인 대화’ 사용을 희망한다는 것”이라며 “이러한 AI 모델에서 우리가 마주하는 문제들이 잘못된 정보든 고정관념이든 언뜻 봐서는 분명하지 않을 수 있다고 예상되기 때문에 AI가 이러한 문제를 제대로 이해할 때까지 계속해서 대화하고 노력할 것”이라고 말했다.

비영리 AI 연구소 ‘코히어포에이아이(Cohere for AI)를 이끌고 있는 사라 후커(Sara Hooker)는 AI 모델이 학습하는 방법을 최적화하기 위해 사람의 선호도를 활용하겠다는 딥마인드의 아이디어가 새로운 것이 아니라고 설명했다. 그는 “하지만 딥마인드가 개선한 지점들은 설득력이 있으며 이는 대형언어모델 환경에서 사람의 안내를 통한 대화 에이전트 최적화에 분명한 이점이 있음을 보여준다”고 덧붙였다.

AI 스타트업 허깅페이스(Hugging Face)의 연구원 다우 킬라(Douwe Kiela)는 스패로를 “AI 분야에서 일어나고 있는 대형언어모델의 안전성을 개선하려는 일반적 추세를 보여주는 대표적 사례”라고 묘사했다.

그러나 이러한 대화형 AI 모델이 배포되려면 그 전에 해야 할 일이 많다.

스패로는 여전히 실수를 한다. 예를 들어 때때로 주제를 벗어나거나 무작위로 답변을 만들기도 한다. 작정하고 틀린 답변을 유도했더니 스패로가 답변의 8% 정도에서 규칙을 위반하게 만들 수 있었다. 물론 이 정도도 이전 모델들에 비하면 개선된 것이다. 딥마인드의 이전 모델들은 스패로보다 3배 이상 규칙을 어겼다.

후커는 “AI 모델이 의학적이나 금전적 조언을 제공하는 등의 답변으로 사람들에게 피해를 줄 수 있는 영역에서는 이 정도 수치도 여전히 용납할 수 없을 정도의 높은 실패율에 해당한다”며 “더불어 기술이 안전하고 책임감 있게 다양한 언어를 서비스해야 하는 세상에 살고 있는데도 이번 AI 모델 역시 영어를 기반으로 한다는 점 역시 아쉽다”고 말했다.

킬라는 다른 문제점을 지적했다. 그는 “구글에서만 정보 검색을 하게 만들 경우 AI 모델이 소스를 확인하기 힘든 편향에 사로잡힐 수 있다”고 경고했다. (By Melissa Heikkilä)

미리보기 2회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.