
구글 딥마인드, AI 도덕적 판단 검증 나선다
구글 딥마인드는 대형언어모델(LLM)이 동반자, 치료사, 의료 조언자 등의 역할을 수행할 때 보여주는 ‘도덕적 행동’을 코딩이나 수학 능력과 동일한 수준으로 엄격하게 검증해야 한다고 주장하고 있다.
LLM이 발전하면서 사람들은 AI에 점점 더 민감한 역할을 맡기고 있다. AI 에이전트는 이용자를 대신해 행동하기 시작했고, LLM은 인간의 의사 결정에도 영향을 미칠 수 있다. 그러나 이러한 영역에서 이 기술이 얼마나 신뢰할 수 있는지는 아직 명확하지 않다.
구글 딥마인드 연구원인 윌리엄 아이작(William Isaac)은 필자와 만난 자리에서 최근 동료 연구원 줄리아 하스(Julia Haas)와 함께 발표한 연구를 소개하며 “코딩이나 수학에는 명확하고 검증 가능한 정답이 존재하지만 도덕적 질문은 대개 여러 개의 허용 가능한 답변이 나올 수 있다”고 말했다. 이는 도덕성은 중요하지만 평가하기 어렵다는 의미다.
이 주제에 대한 두 사람의 연구는 18일(현지시간) 학술지 《네이처》에 게재됐다.
하스 역시 “도덕 영역에선 명확하게 옳고 그른 게 없다”면서도 “그렇다고 무질서한 영역이란 뜻은 아니고, 더 나은 답변과 더 나쁜 답변은 분명히 존재한다”고 설명했다.
두 연구자는 여러 핵심 과제를 제시하고 이를 해결하기 위한 방향을 제안했다. 다만 이는 완성된 해결책이라기보다는 향후 연구를 위한 ‘희망 목록’에 가깝다. 독일 자를란트대학교에서 LLM을 연구하는 베라 뎀버그(Vera Demberg) 교수는 “아이작과 하스의 연구는 다양한 관점을 잘 종합한 연구”라고 평가했다.