Why does AI hallucinate?
AI는 왜 ‘환각’을 일으킬까?
AI가 사실이 아닌 엉뚱한 답변을 만들어내는 현상을 ‘환각’이라고 한다. 이러한 문제가 발생하는 것은 무언가를 만들어내려는 AI 챗봇의 성향 때문이다. 그러나 사실 무언가를 만들어내는 것이야말로 챗봇이 하는 일이다.
세계보건기구(WHO)는 지난 4월 2일부터 건강 정보를 원하는 사람들에게 도움을 주기 위해 새로운 챗봇 서비스를 제공하기 시작했다.
GPT-3.5를 기반으로 제작된 새로운 얼굴의 가상 아바타인 사라(SARAH)가 전 세계 수백만 명의 사람들에게 건강한 식습관, 금연하는 법, 스트레스 해소법 등의 다양한 건강 정보를 8개 언어로 24시간 연중무휴로 제공한다. SARAH는 ‘건강을 위한 스마트 AI 리소스 도우미’를 뜻하는 Smart AI Resource Assistant for Health의 약자다.
그러나 다른 모든 챗봇과 마찬가지로 사라도 엉터리 답변을 제공할 가능성이 있다. 실제로 챗봇 서비스를 제공하기 시작한 지 얼마 지나지 않아서 사라가 잘못된 정보를 제공한 사례들이 발견됐다. 한 사례에서는 사라가 샌프란시스코에 실제로 존재하지 않는 의료기관의 가짜 이름과 주소 목록을 제시하기도 했다. WHO는 이와 관련하여 사라가 제공하는 정보가 정확하지 않을 수도 있다고 웹사이트에 고지하고 있다.