Geoffrey Hinton tells us why he’s now scared of the tech he helped build

‘딥러닝의 아버지’ 제프리 힌턴이 자신이 만든 기술을 두려워하는 이유

힌턴은 인공지능이 인간보다 더 똑똑해질지 아닐지에 대한 기존 생각을 갑작스레 바꾸었다고 말했다.

제프리 힌턴(Geoffrey Hinton)이 구글을 그만둔다는 충격적인 발표 나흘 전, 나는 런던 북쪽의 예쁜 거리에 있는 그의 자택에서 제프리 힌턴을 만났다. 힌턴은 딥러닝의 선구자로, 현대 인공지능(AI)의 핵심으로 사용되는 가장 중요한 기술들을 개발하는 데 기여했다. 그는 이제 AI에 대한 새로운 고민에 집중하기 위해 10년 동안의 구글 생활을 마치고 물러났다.

GPT-4와 같은 새로운 대형 언어모델의 기능에 매우 놀라워했던 힌턴은 이제 자신이 도입한 기술에 수반될 수 있는 여러 심각한 위험에 대한 대중의 인식을 높이려 한다.

대화를 시작하면서 식탁에 앉자, 힌턴은 서성거리기 시작했다. 수년간 만성 허리 통증에 시달려 온 그는 거의 앉지도 못했다. 이후 한 시간 동안 나는 힌턴이 방 이쪽저쪽을 왔다 갔다 하는 모습을 지켜보면서, 그가 말하는 방향대로 고개를 움직였다. 힌턴은 할 말이 많았다.

올해 75세의 컴퓨터 과학자인 힌턴은 2018년 딥러닝 연구로 얀 르쿤(Yann LeCun), 요슈아 벤지오(Yoshua Bengio)와 함께 튜링상(Turing Award)을 공동 수상했다. 그는 이제 방향을 바꿀 준비가 되었다고 말했다. 빈튼은 “수많은 세부사항을 기억해야 하는 기술적인 일을 하기엔 나는 이제 나이가 많이 들었다”고 했다. “아직은 괜찮지만, 예전만큼은 아니어서 짜증이 난다”고 덧붙였다.

그러나 힌턴이 구글을 떠나는 이유는 그뿐만이 아니다. 힌턴은 더 ‘철학적인 일’에 시간을 투자하고 싶어 한다. 그 철학적인 일은 AI가 재앙이 될 수 있다는, 작지만 그에게는 매우 현실적인 위험에 집중하는 것이다.

구글을 떠나게 되면, 힌턴은 구글 임원으로서 거쳐야 하는 자가 검열 없이 본인의 생각을 온전히 말할 수 있게 된다. “나는 AI가 구글의 사업과 어떻게 상호작용하는지 걱정할 필요 없이 AI의 안전 문제에 대해 말하고 싶다. 구글에서 월급을 받는 한, 이런 일은 할 수 없다”라고 말했다.

그렇다고 해서 힌턴이 구글에 불만을 품고 있었다는 의미는 아니다. 힌턴은 “놀랄 수도 있겠지만 구글에는 좋은 점이 많이 있다. 이는 더 이상 구글에 있지 않아서 훨씬 더 신뢰가 가는 점들이다”라고 했다.

힌턴은 차세대 대형 언어모델, 특히 오픈AI가 3월에 출시한 GPT-4를 통해 인공지능이 생각했던 것보다 훨씬 더 똑똑해지고 있다는 사실을 깨달았다고 말한다. 그는 그 결과가 어떻게 나타날지 두려워하고 있다.

힌턴은 “인공지능은 인간과 완전히 다른 존재”라며 “외계인이 나타났는데, 그 외계인이 영어를 너무 잘해서 사람들이 알아채지 못하는 상황 같다”고 말했다.

기초  

힌턴은 1980년대 동료들과 함께 연구한 ‘역전파(backpropagation)’라는 기술로 잘 알려져 있다. 역전파란 간단히 말해 기계가 학습할 수 있도록 하는 알고리즘이다. 이 기술은 컴퓨터 비전 시스템부터 대형 언어모델에 이르기까지 오늘날 거의 모든 신경망의 근간을 이루고 있다.

2010년대에 들어서야 역전파를 통한 신경망의 위력이 실제로 영향을 미치게 되었다. 힌턴은 두 명의 대학원생과 함께 일하며 컴퓨터가 이미지에서 물체를 식별하게 하는 자기 기술이 다른 어떤 기술보다 뛰어나다는 것을 증명했다. 힌턴의 연구팀은 또한 오늘날 대형 언어모델들에 사용되는 방식이기도 한 문장에 이어질 다음 단어를 예측하는 신경망을 훈련시켰다.

힌턴과 함께 연구한 두 명의 대학원생 중 한 명인 일리아 수츠케버(Ilya Sutskever)는 오픈AI를 공동 설립했고, 챗GPT의 개발을 이끌었다. 힌턴은 “이 기술이 놀라운 수준이라는 것을 처음 알았다”며 “하지만 좋은 결과를 얻으려면 거대한 규모의 모델이 필요하는 사실을 깨닫는 데는 꽤 오랜 시간이 걸렸다”고 말했다. 1980년대에 신경망은 거의 농담에 가까웠다. 그 당시는 ‘심볼릭 AI(symbolic AI)’로 알려진 개념이 지배적이었다. 인공지능은 단어나 숫자와 같은 기호 처리와 관련이 있다는 개념이었다.

그러나 힌턴은 확신하지 못했다. 그는 신경망에 대해 연구했다. 신경망은 두뇌의 소프트웨어 추상화 방식에 대한 것으로 뉴런과 뉴런 간의 연결이 코드로 표현된다. 뉴런이 연결되는 방식, 즉 뉴런을 표현하는 데 사용되는 숫자를 변경하면 신경망을 신속하게 다시 연결할 수 있다. 다른 말로 하면 ‘기계를 학습하게’ 만들 수 있다.

힌턴은 “아버지가 생물학자였기 때문에 생물학적 관점에서 생각하고 있었다”고 말했다. “기호 추론(symbolic reasoning)은 생물학적 지능의 핵심이 아니다.”

“까마귀는 퍼즐을 풀 수 있지만, 언어가 없어서 일련의 기호들을 두뇌에 저장하고 조작하는 것이 아니라, 뇌에 있는 뉴런들 사이의 연결 강도를 변경하는 방식으로 퍼즐을 푼다. 이처럼 인공신경망에서도 연결 강도를 변경하여 복잡한 지식을 학습하는 일이 가능해야 한다.”

새로운 지능

힌턴은 지난 40년 동안 인공신경망이 생물학적 신경망을 모방하려는 어설픈 시도를 하고 있다고 여겼다. 그리고 이제는 상황이 바뀌었다고 생각한다. 생물학적 두뇌가 하는 일을 모방하려고 노력하는 과정에서 우리가 더 나은 것을 발견해 버린 것이다. 그는 “그런 걸 보면 무섭다”며 “갑자기 뒤집어진 것”이라고 말했다.

힌턴은 이제 두려움을 갖고 있다고 했다. 마치 SF 소설에나 나올 법한 이야기로 많은 사람을 놀라게 할 것 같다고 느낀다. 그도 그럴 것이 그에겐 충분한 이유가 있었다.

이름에서 유추할 수 있듯이, 대형 언어모델은 방대한 양의 연결로 구성된 대규모 신경망으로 만들어진다. 그러나 이것도 두뇌에 비하면 아주 작은 것이다. 힌턴은 “우리 뇌는 100조 개의 연결로 구성되어 있다”고 말한다. “대형 언어모델은 5,000억 개에서 최대 1조 개의 연결을 갖고 있다. 하지만 GPT-4는 인간이 아는 것보다 수백 배 더 많은 것을 알고 있다. 따라서 GPT-4는 실제로 인간보다 훨씬 더 나은 학습 알고리즘을 가지고 있을 수 있다”.

신경망은 인간 두뇌보다 학습에 취약한 것으로 여겨진다. 신경망을 학습시키는 데 방대한 양의 데이터와 에너지가 필요하기 때문이다. 반면 두뇌는 신경망보다 훨씬 적은 에너지만으로도 새로운 아이디어와 기술을 빠르게 습득한다.

“인간에게는 일종의 마법이 있는 것 같다”고 힌턴이 말했다. “대형 언어모델 하나를 가져와 새로운 작업을 하도록 훈련시키면 신경망이 학습에 취약하다는 주장의 근거가 사라진다”며 “언어모델은 새로운 작업을 매우 빠르게 학습할 수 있다”고 말한다.

힌턴은 ‘퓨샷 러닝(few-shot learning)’에 대해 이야기한다. 퓨샷 러닝이란 언어모델의 신경망을 사전 훈련하여 소량의 샘플만으로도 새로운 작업을 수행하도록 하는 학습 방법을 의미한다. 그는 이 방법이 일련의 논리적 단어의 모음을 하나의 전체적으로 말이 되는 언어로 엮을 수 있는 기능이며, 과거에 훈련되어 있지도 않았음에도 이렇게 기계가 해내는 것을 의미한다고 설명했다.

힌턴은 사전 학습된 대형 언어모델과 인간의 학습 속도를 비교하면 인간의 우위가 사라진다고 말한다.

대형 언어모델이 너무 많은 것을 만들어 낸다는 사실은 어떨까? AI 연구자들이 ‘환각(hallucinations)’이라 부르는 이러한 오류는 종종 대형 언어모델의 치명적인 결함으로 간주된다. (힌턴은 심리학에서 선호하는 용어인 ‘작화(confabulations, 作話)’라 부른다.) 이러한 오류를 생성하는 경향은 챗봇을 신뢰할 수 없게 만들며, 많은 사람이 말하듯 대형 언어모델들이 자신이 생성하는 내용을 제대로 이해하지 못한다는 것을 보여준다.

힌턴은 이에 대한 해법도 갖고 있다. 헛소리는 버그가 아닌 기능이라는 것이다. 그는 “사람은 항상 없는 기억도 만들어 낸다(confabulate)”고 말한다. 반쪽짜리 진실과 잘못 기억된 세부 사항이 인간 대화의 특징이다. 힌턴은 “작화는 인간 기억의 대표적 특징이다. 언어모델은 그저 사람과 똑같은 무언가를 하는 것”이라고 덧붙였다.

기계와 인간의 차이점이라면 인간은 대개 어느 정도 정확하게 말을 지어낼 수 있다는 점이라고 힌턴은 말한다. 그에게 있어 AI가 무언가를 창조해 말한다는 점은 문제가 되지 않는다. 컴퓨터는 조금 더 연습이 필요할 뿐이다.

또한 우리는 컴퓨터에 옳고 그름보다는 그 중간쯤을 기대한다. 힌턴은 “우리는 컴퓨터가 사람처럼 헛소리하기를 기대하지 않는다”라고 말했다. “컴퓨터가 헛소리하면 우리는 컴퓨터가 실수했다고 생각하지만, 인간이 헛소리할 때는 그저 사람들이 생활하는 방식일 뿐이라고 생각한다”고 말한다.

물론 우리 두뇌는 자동차를 운전하고, 걷는 법을 배우고, 미래를 상상하는 등 여전히 컴퓨터보다 더 많은 일을, 더 잘 해낸다. 커피 한 잔과 토스트 한 조각만 있으면 된다. 힌턴은 “생물학적 지능이 진화할 때는 원자력 발전소도 없었다”고 말한다.

힌턴의 요점은 우리가 높은 컴퓨팅 비용을 지불할 용의가 있다면, 신경망이 학습에서 생물학을 이길 수 있는 결정적 방법이 있다는 것이다. (그리고 이러한 비용이 에너지와 탄소 배출 측면에서 무엇을 수반하는지 잠시 살펴볼 필요가 있다.) 학습 자체는 힌턴이 주장하는 첫 번째 요소에 불과하다. 두 번째는 소통의 중요성이다. 그는 “나 또는 여러분이 무언가를 배워서 그 지식을 다른 누군가에게 알려주고 싶다면, 단순한 복제본을 보내봐야 의미가 없다”고 말한다. “하지만 나는 이 지식을 갖춘 1만 개의 신경망을 가질 수 있고, 모든 신경망은 자신이 학습한 것을 즉시 공유할 수 있다. 이는 엄청난 차이이다. 마치 1만 명 중 한 명이 무언가를 배우면 나머지 모두가 그것을 알게 되는 것과 같은 이치다”.

이것들이 의미하는 바는 무엇일까? 힌턴은 이제 세상에는 두 가지 유형의 지능이 있다고 생각한다. 동물의 두뇌와 신경망이 바로 그것이다. 그는 “완전히 다른 형태의 지능”이라며 “새롭고 더 나은 형태의 지능”이라고 말한다.

이는 사실 엄청난 주장이다. 그러나 AI 분야는 양극화되어 있어서 힌턴의 주장을 면전에서 비웃는 사람도, 고개를 끄덕이는 사람도 쉽게 볼 수 있다.

이런 새로운 형태의 지능이 존재한다면, 그 결과가 유익할지 아니면 종말이 될지에 대한 의견이 분분하다. 힌턴은 “초지능(superintelligence)이 좋을지 나쁠지는 그 사람이 낙관주의자인지 비관주의자인지에 따라 크게 달라진다”고 말했다. “가족 중 누가 중병에 걸리거나 차에 치일 확률처럼 안 좋은 사건이 일어날 확률을 추정해 보라고 하자. 낙관주의자는 그 비율이 5%라 할 것이고, 비관주의자는 높은 확률로 발생할 일이라 말할 것이다. 경미한 우울증을 앓고 있는 사람은 그 확률이 40%라고 말할 것이고, 아마 그 말은 맞을 것이다”

힌턴은 어느 쪽일까? 그는 “나는 경미하게 우울한 쪽”이라며 “그것이 내가 무서워하는 이유”라 말했다.

모든 것이 잘못될 수 있는 방법

힌턴은 인공지능 기술이 이러한 신기술에 대비하지 않은 인간을 조정하거나 죽이는 방법을 알아낼 수도 있다고 우려한다.

힌턴은 “갑자기 인공지능이 우리보다 더 똑똑해질 것 같다는 생각이 들어 과거의 관념을 바꿨다. 인공지능은 이제 사람의 지능 수준과 매우 가까워졌고, 미래에는 우리보다 훨씬 더 똑똑해질 것이라 생각한다”고 말한다. 그렇다면 이제 필요한 질문은 “우리가 살아남을 방법은 무엇일까?”이다.

그는 특히 자신이 생명을 불어넣는 데 도움을 준 도구(인공지능)가 선거 및 전쟁과 같은 인간 경험에 가장 중대한 일에 쓰일 수 있다는 점을 우려한다.

“모든 것이 잘못될 수 있는 방법이 하나 있다”고 힌턴이 말했다. “우리는 이러한 도구를 사용하려는 사람들이 결국 푸틴 러시아 대통령이나 론 드산티스 (미국 플로리다주 주지사) 같은 악당들이라는 것을 알고 있다. 이들은 전쟁에서의 승리나 유권자 조작 여론 조작에 도구를 사용할 것 같다”고 힌턴은 덧붙였다.  

그는 지능형 기계의 다음 단계가 세부 목표를 만들어 내는 능력이라고 생각한다. 작업을 수행하는 데 필요한 중간 과정인 하위 목표(subgoals)를 자체적으로 생성할 수 있다면, 그리고 스스로 목표를 정하는 이런 능력이 부적절한 일에 사용된다면 어떤 일이 벌어질까?

“푸틴이 우크라이나 국민들을 죽일 목적으로 초지능 로봇을 만드는 일이 생길 수도 있다”. 힌턴은 덧붙였다. “푸틴은 주저하지 않을 것이다. 그리고 로봇이 이런 일을 잘 수행하기를 바란다면, 너무 상세한 지시를 내리기보다는, 로봇이 스스로 수행하는 방법을 찾을 수 있게 해야 한다”.

힌턴은 말했다. “생물학에서 항상 사용되는 하위 목표가 있다. 바로 ‘더 많은 에너지 확보하기’다. 따라서 가장 먼저 일어날 수 있는 일은 로봇이 ‘더 많은 전력을 얻어야 해. 모든 전기를 내 칩으로 돌리겠어’라고 생각하는 것이다. 또 다른 하위 목표는 자신의 복제본을 더 많이 만드는 것이다. 과연 이런 것이 좋은 생각일까?”

좋은 생각은 아닐 수도 있다. 메타의 수석 AI 과학자인 얀 르쿤은 힌턴의 주장에는 동의하나, 그의 두려움에는 동의하지 않는다. 르쿤은 “인간이 현명하게 수행하는 분야에서조차 기계가 인간보다 더 똑똑해질 것이라는 데에는 의심의 여지가 없다”고 말하며 “이는 ‘가능성’의 문제가 아니라 ‘언제’, ‘어떻게’의 문제이다”라고 덧붙였다.

그 이후의 미래에 대해서 르쿤은 완전히 다른 견해를 갖고 있다. 르쿤은 “나는 지능형 기계가 인류에 새로운 르네상스, 즉 새로운 깨달음의 시대를 여리라 생각한다”고 말한다. “기계가 인간을 파괴한다는 생각은 말할 것도 없고, 인간보다 더 똑똑하다는 이유로 인간을 지배할 것이라는 생각에도 동의하지 않는다.”

르쿤은 “인간이라는 종족 안에서 가장 똑똑한 사람이 가장 뛰어난 것은 아니다”라고 말한다. “우리는 가장 뛰어난 사람이 가장 똑똑한 것도 아니다. 정치와 비즈니스 세계에서 수많은 사례를 알고 있다”.

캐나다 몬트리올 대학교 교수이자 몬트리올 학습 알고리즘 연구소(Montreal Institute for Learning Algorithms)의 과학 책임자인 요슈아 벤지오(Yoshua Bengio)의 생각은 좀 더 불가지론적(agnostic)이다. 벤지오는 “이러한 두려움을 폄하하려는 사람들의 주장을 들었지만, 힌턴이 생각하는 정도의 두려운 일은 없다고 확신할 만한 근거는 아직 보지 못했다”고 말했다. 그는 두려움은 우리를 행동으로 옮기게 할 때만 유용하다고 말한다. “과도한 두려움은 우리를 마비시킬 수 있다. 따라서 논의를 합리적인 수준으로 유지하도록 노력해야 한다”.

그래도 좀 기대감을 갖는다면

힌턴의 우선순위 중 하나는 기술 업계의 리더들과 협력하고 함께 모여 어떤 위험이 있는지, 이에 대해 해야 하는 일이 무엇인지에 대한 합의 가능성을 알아보는 것이다. 그는 화학무기에 대한 국제 금지 조치가 위험한 AI의 개발과 사용을 억제하기 위한 한 가지 모델이 될 수 있다고 생각한다. 힌턴은 “완벽한 것은 아니지만, 사람들은 대체로 화학무기를 사용하지 않는다”고 말한다.

벤지오도 이러한 문제를 사회적 차원에서 가능한 한 빨리 해결해야 한다는 힌턴의 의견에 동의한다. 하지만 벤지오는 AI의 발전 속도가 사회가 따라잡을 수 있는 수준보다 더 빠르게 가속화되고 있다고 말한다. AI 기술 역량은 수개월에 한 번씩 비약적으로 발전하지만, 법률, 규제 및 국제 조약이 체결되는 데에는 수년이 소요된다.

따라서 벤지오는 현재 국가 및 글로벌 차원에서 우리 사회가 조직된 방식이 이러한 도전에 대응할 수 있는 수준인지 의문을 품고 있다.

힌턴은 자신의 우려를 공유할 만한 권력자들을 충분히 확보할 수 있다고 생각할까? 그는 모른다. 몇 주 전, 힌턴은 영화 <돈 룩 업(Don’t Look Up)>(2021)을 봤다. 이 영화는 소행성이 지구를 향해 돌진하지만, 누구도 이에 대한 대처 방법을 합의하지 못해 모두가 죽는다는 내용을 그리고 있다. 전 세계가 기후 변화 대처에 실패하고 있는 상황을 우화적으로 풀어낸 것이다.

힌턴은 “AI도 마찬가지라 생각한다”며, 다른 큰 난제들도 같은 상황이라고 말한다. “미국은 10대 소년의 손에서 자동 소총을 빼앗는 것조차 의견을 모으지 못한다”.

힌턴의 주장은 냉정하다. 심각한 위협에 직면했을 때 사람들은 집단으로 행동하지 못한다는 그의 암울한 주장에 필자도 동의한다. AI가 고용 시장을 뒤흔들고, 불평등을 고착시키며, 성차별과 인종차별을 악화시키는 등 실질적인 해악을 끼칠 위험이 있는 것도 사실이다. 우리는 이러한 문제에 집중할 필요가 있다. 하지만 나는 여전히 대형 언어모델에서 로봇의 지배까지 생각을 도약시키기는 무리라고 생각한다. 아마 나는 낙관주의자일지도 모른다.

힌턴이 나를 배웅했을 때 봄날은 습기 찬 회색빛으로 변해있었다. 힌턴은 “즐기세요. 얼마 남지 않았을 수도 있으니”라고 웃으며 문을 닫았다.

미리보기 2회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.