
인공지능이 의식을 갖게 될지 알기 어려운 이유
인공지능(AI)에 관심이 있는 사람이라면 ‘미캐니컬 터크(Mechanical Turk)’에 대한 이야기를 들어 잘 알고 있을 것이다. 이것은 1770년에 만들어진 체스 기계로, 상대방이 기계가 가히 초자연적일 만큼 실력이 좋다고 믿게 만들 정도로 실력이 뛰어났다. 하지만 실제로는 기계 안에 사람이 숨어서 기계를 조종할 수 있는 공간이 있었다. 이 사기는 무려 84년 동안 계속되었다. 3세대에 걸쳐서 말이다!
과거 역사를 살펴보면 이처럼 무생물에 생명을 불어넣으려는 사람들과 속임수를 ‘마법’이라고 속여서 파는 사람들의 사례가 많다. 하지만 기계가 의식을 가졌다고 믿으려는 인간의 욕망은 현실과 동떨어져 있다.
AI 시스템에서 의식을 창조하려는 것은 많은 기술자들이 꿈꿔왔던 꿈이다. 물론 논쟁의 여지가 있지만 혹자는 똑똑한 기계에 대한 탐구의 최신 사례인 대형 언어모델(large language model, LLM)과 대화하면서 희미한 의식을 느꼈다고 주장한다. 기계가 의식을 가질 수 있을지는 뜨거운 논쟁거리다. 많은 전문가들은 그런 일이 영원히 공상 과학소설에서나 나올 수 있는 이야기라며 일축하지만, 머지않아 실현될 수 있는 일이라고 보는 전문가도 있는 게 사실이다.
MIT 테크놀로지 리뷰 최신판에서 신경과학자 그레이스 허킨스(Grace Huckins)는 인간의 의식 연구를 통해 AI에 대해 배울 수 있는 점과 AI 의식이 제기할 수 있는 도덕적 문제에 대해 살펴봤다. (관련 기사)
그레이스는 우리가 인간의 의식에 대해 완전히 이해하고 있지는 못하지만, 신경과학자들은 의식이 뇌에서 어떻게 나타나는지에 대해 몇 가지 단서를 가지고 있다고 설명했다. 단언컨대. AI 시스템에 뇌가 없는 이상 뇌의 활동을 측정하는 전통적인 방법을 사용해서 그것에서 생명의 징후를 파악하기란 불가능하다. 하지만 신경과학자들은 AI 시스템의 의식이 어떤 모습일지에 대해 다양한 이론을 제기하고 있다. 일부는 의식을 뇌의 ‘소프트웨어’ 기능으로 간주하는 반면, 의식을 물리적 하드웨어와 더 밀접하게 연관시켜 보는 사람도 있다.
심지어 AI가 의식이 있는지를 알아보는 테스트를 만들려는 시도도 있었다. 플로리다 애틀랜틱 대학교의 미래 마인드 센터(Center for the Future Mind) 책임자 수전 슈나이더(Susan Schneider)와 프린스턴 대학교의 물리학자 에드윈 터너(Edwin Turner)가 그런 시도에 나섰다. 그들은 AI 시스템을 테스트하기 전에 그것이 훈련 도중 포착할 수 있는 의식에 대한 정보로부터 격리하도록 하는 ‘인공의식 테스트’를 개발했다. 이와 같은 절차는 LLM처럼 훈련 중에 습득한 의식에 대한 인간의 진술을 앵무새처럼 따라 하지 않도록 만들기 위해 중요하다.
이어 시험관은 AI 시스템이 스스로 의식이 있을 때만 대답할 수 있는 질문을 던졌다. 그렇다면 과연 AI는 엄마와 딸이 몸이 서로 바뀌면서 의식이 육체에서 분리되는 내용이 나오는 영화 <프리키 프라이데이(Freaky Friday)>(2004년)의 줄거리를 이해할 수 있을까? 아니면 꿈을 꾼다는 개념을 이해하거나 심지어 직접 꿈을 꿨다고 말할 수 있을까? AI가 환생이나 사후 세계에 대해 생각하는 건 어떤가?
물론 이 테스트가 완벽한 건 절대 아니다. 피험자가 언어를 사용할 수 있어야 하므로 분명 의식이 있는 존재인 아기와 동물도 이 테스트를 통과할 수는 없다. 그리고 언어에 기반한 AI 모델은 훈련받은 방대한 양의 인터넷 데이터 속에서 의식이라는 개념에 노출되었을 것이다.
그렇다면 AI 시스템이 의식이 있는지 어떻게 알 수 있을까? 컴퓨터 과학 분야의 노벨상이라 불리는 튜링상을 수상한 요슈아 벤지오(Yoshua Bengio)를 비롯한 신경과학자, 철학자, AI 연구원들이 여러 분야의 다양한 이론을 바탕으로 AI가 의식을 가졌는지 감지하는 실용적인 방법을 제안하는 백서를 발표했다. 이들은 유연한 목표 추구와 외부 환경과의 상호작용 등 다양한 지표에 대한 일종의 성적표를 제시하며, 이것이 AI 시스템의 의식 유무를 나타내는 지표가 될 수 있다고 주장했다. 그런데 오늘날의 어떤 AI 시스템도 성적표 안에 든 항목을 전혀 충족시키지 못하며, 앞으로도 그럴 수 있을지 역시 불투명하다.
우리가 알고 있는 사실을 정리하자면 이렇다. LLM은 문장의 다음 단어가 무엇일지 예측하는 데 매우 능숙하다. 또한 사물과 사물을 연결하는 데도 역시 그렇다. 때로는 우리를 놀라게 만들 정도로 능숙해서 이런 컴퓨터 프로그램이 다른 어떤 번뜩이는 능력이 있을지도 모른다는 착각에 빠지게 만들기도 한다. 하지만 우리는 AI 언어 모델의 내부 작동 방식에 대해 아는 것이 거의 없다. 이러한 시스템이 어떻게, 그리고 왜 어떤 결론에 도달하는지에 대해 더 정확히 알기 전까지는 모델이 내놓는 결과가 단순히 ‘멋진 계산의 결과’가 아니라고 말하기는 어렵다.