The messy, secretive reality behind OpenAI’s bid to save the world

베일에 싸인 세계 최고 두뇌집단 오픈AI

챗GPT의 아버지로 불리는 샘 올트먼 최고경영자(CEO)의 갑작스러운 해임과 복귀로 연일 쏟아지는 그와 그가 이끈 오픈AI(OpenAI) 관련 뉴스로 기술 업계가 시끄럽다. MIT 테크놀로지 리뷰는 2020년 오픈AI를 심도 있게 취재한 기사를 다시 게재해 오픈AI가 어떤 조직인지에 대한 독자들의 이해를 돕고자 한다.

좌측 이미지를 클릭하시면 ‘오픈AI 스페셜 리포트’ 외에도 유료 독자들에게만 제공되는 MIT 테크놀로지 리뷰의 다양한 스페셜 리포트를 보실 수 있습니다.

매년 오픈AI(OpenAI) 직원들은 AGI(artificial general intelligence, 인공 일반 지능)이 언제 가능해질 것인가를 놓고 투표한다. 이 투표는 보통 직원들의 유대감 향상을 위해 실시하며, 직원들의 추정치는 매번 크게 다르다. AI 분야에서 인간형 자율 시스템(human-like autonomous systems)이 과연 가능할지에 대한 논쟁은 분분하다. 오픈AI 직원 중 절반은 AGI이 15년 이내에 가능할 것이라고 확신한다.

오픈AI는 알파벳(Alphabet) 산하 딥마인드(DeepMind) AI 분야의 다른 거물들과 함께 연구를 수행하면서 유명해졌다. 오픈AI가 특별히 인정받는 이유는 무엇보다 이들의 ‘미션’ 때문이다. 오픈AI의 목표는 인간과 비슷한 학습 능력 및 추론 능력을 가진 기계, 즉 AGI 기계를 최초로 만드는 것이다. 이들이 AGI를 개발하려는 목적은 세계를 지배하기 위해서가 아니다. 오픈AI는 해당 기술을 안전하게 개발하여 그로 인한 이점이 전 세계에 고르게 분배되도록 보장하고자 한다.

오픈AI의 로고가 걸려 있는 사무실
Christie Hemm Klok

필자는 오픈AI의 사무실에서 사흘을 보냈다. 오픈AI의 전·현직 직원들, 협력자들, 친구들 및 이 분야의 다른 전문가들을 대상으로 진행한 약 40건에 가까운 인터뷰에서 그들은 이전에 알던 모습과는 전혀 다른 그림을 보여줬다. 오픈AI가 공개적으로 지지하는 바와 회사가 비공개로 일을 진행하는 방식 사이에는 불일치가 있다. 시간이 지나면서 오픈AI는 투자금을 더 많이 확보하기 위한 치열한 경쟁과 점점 높아지는 압박에 ‘투명성, 개방성, 협력’이라는 회사의 이상적인 설립 이념을 손상시켰다. 오픈AI의 직원이거나 직원이었던 사람들은 인터뷰 허가를 받지 못해서 또는 보복이 두려워서 익명을 요청했다. 이들의 증언은 그 모든 숭고한 포부에도 불구하고 오픈AI가 비밀 유지, 이미지 보호, 직원들의 충성 유지 등에 집착하고 있음을 보여준다.

1층에 있는 회의실 이름은 ‘무한한 농담(Infinite Jest)’이다.
Christie Hemm Klok

샌프란시스코 18번가와 폴섬 스트리트가 교차하는 지점에 있는 오픈AI 사무실은 신비로운 창고처럼 보였다. 이 역사적인 건물은 단조로운 회색빛 패널과 햇빛을 막기 위해 코팅된 창문으로 이루어져 있고, 차양은 대부분 내려져 있었다. 건물의 이전 주인이었던 ‘파이오니어 트럭 팩토리(Pioneer Truck Factory)’가 남겨 놓은 ‘파이오니어 빌딩(PIONEER BUILDING, 선구적인 건물)’이라는 글자가 건물 모퉁이에 빛바랜 붉은 페인트로 쓰여 있었다.

내부로 들어가니 공간은 밝고 쾌적했다. 1층에는 공용 공간 몇 개와 회의실 두 개가 있었다. 대규모 회의용 첫 번째 회의실 이름은 ‘스페이스 오디세이(A Space Odyssey)’였고, 잘 꾸며진 전화부스 같은 두 번째 회의실 이름은 ‘무한한 농담(Infinite Jest)’이었다. 그곳이 오픈AI에 방문했을 때 내게 허락된 공간이었다. 나는 2층과 3층에 올라갈 수 없었다. 2층과 3층에는 모든 직원의 책상과 몇몇 로봇이 있었고 흥미로운 모든 것이 있었다. 인터뷰 시간이 되면 사람들이 위층에서 내려왔다. 직원 한 명은 인터뷰 중간중간 나를 주의 깊게 관찰했다.

파이오니어 빌딩
Wikimedia commons/tfinc

하늘이 파랬던 어느 맑은 날, 나는 오픈AI의 CTO 브록먼을 만나기 위해 오픈AI 사무실에 도착했다. 브록먼은 긴장하고 경계하는 것처럼 보였다. 이후 회사 전체 회의가 있을 때마다 점심을 먹자며 나를 사무실에서 데리고 나갔다. 길 건너편 카페에서 그는 열정과 진실성과 경이로움을 바탕으로 오픈AI의 미션과 과학사의 획기적인 업적 사이의 유사성을 강조했다.

그렉 브록먼, 공동 설립자이자 최고기술책임자(CTO)
Christie Hemm Klok

브록먼은 오픈AI가 어떤 도박을 하고 있는지 잘 이해하고 있고, 냉소와 의심을 불러일으킨다는 사실도 알고 있다. 그러나 그가 언급한 메시지는 분명하다. 사람들은 얼마든지 회의적일 수 있고 그것은 대담한 용기의 대가라는 것이다.

오픈AI 초창기에 합류한 사람들은 당시의 에너지와 흥분, 목적의식을 기억한다. 긴밀한 연결망을 통해 구성된 팀은 소규모였고, 경영진은 자유로웠으며 형식에 구애받지 않았다. 사람들은 모두 아이디어와 토론을 환영하는 평등한 구조가 존재한다고 믿었다.

머스크는 오픈AI의 신화를 만드는 데 적지 않은 역할을 했다. 창립 초기 2년 동안 몇몇 학생들과 오픈AI에서 함께 일했던 캘리포니아 대학교 버클리 캠퍼스(UC Berkeley) 교수인 피터 애빌(Pieter Abbeel)은 “머스크가 내게 아이디어를 제시하는 방식은 ‘그래. AGI는 아직 멀리 있는지도 모르지, 하지만 그렇지 않다면 어떡할 거야?’ 같은 식이었다”고 회상한다. 그는 “머스크는 ‘AGI가 향후 5년에서 10년 사이에 실현될 가능성이 1%, 아니면 0.1%라도 있다면? 그러면 해당 기술에 대해 매우 신중하게 생각해야 하지 않을까?’라고 말했고 그 말은 내게 반향을 일으켰다”고 고백했다.

오픈AI는 AGI로 가기 위한 내부 문서 초안을 작성하기 시작했다. 그러나 이 과정에서 회사가 비영리단체로 남아있는 것이 재정적으로 불가능하다는 것을 깨달았다.

2017년 3월이 되었을 때 경영진은 이제 더 집중해야 할 때라는 것을 깨달았다. 브록먼과 몇몇 다른 핵심 구성원은 AGI로 가기 위한 내부 문서 초안을 작성하기 시작했다. 그러나 이 과정에서 회사가 비영리단체로 남아있는 것이 재정적으로 불가능하다는 것을 깨달았다. AI 분야의 다른 조직이 획기적인 결과를 얻기 위해 사용하는 컴퓨터 자원은 3, 4개월마다 두 배로 증가하고 있었다. 브록먼은 “이 분야에서 살아남기 위해서는 이러한 기하급수적인 증가에 필적하거나 이를 뛰어넘을 수 있는 자본이 필요하다”고 토로했다. 이를 위해서는 빠르게 연구 자금을 모을 수 있으면서 어떻게든 회사의 미션에 충실할 수 있는 새로운 조직 모델이 필요했다.

2018년 4월 대부분의 직원은 물론 대중도 모르게 오픈AI는 회사의 헌장을 발표했다. “인류에게 해를 끼치거나 지나치게 권력을 집중시키는 AI나 AGI의 사용을 가능하게 하지 않겠다”고 말하면서도 헌장은 또한 자원의 필요성도 강조했다. 헌장은 “우리는 미션을 수행하기 위해 상당한 자원을 집결할 필요가 있을 것으로 예상한다. 하지만 광범위한 이익을 손상시킬 수 있는 직원과 이해관계자 간 이해충돌을 최소화하기 위해 부단히 노력할 것”이라고 언급했다.

좌측부터, 다니엘라 아모데이(전 오픈AI, 2021 퇴사), 잭 클라크(전 오픈AI, 2021 퇴사), 다리오 아모데이(전 오픈AI, 2021 퇴사), 제프 우(기술팀 직원), 그렉 브록먼, 알렉 레드포드(기술언어팀 책임자), 크리스틴 페인(기술팀 직원), 일리야 수츠케버, 크리스 버너(인프라팀 책임자)
Christie Hemm Klok

구조 변화는 2019년 3월(2월에 일론 머스크 사임)에 일어났다. 오픈AI는 비영리단체의 일부인 이사회가 감독하지만, 투자자의 수익을 최대 100배로 제한하는 ‘수익 제한(capped profit)’형 영리 부문을 설립하면서 순수한 비영리단체 타이틀을 벗었다. 그로부터 얼마 후 오픈AI는 마이크로소프트로부터 수십억 달러를 투자받았다(그러나 이 투자금이 현금과 마이크로소프트의 클라우드 컴퓨팅 플랫폼 애저(Azure)의 크레딧으로 나눠서 지급됐다는 사실은 밝히지 않았다).

예상대로 이러한 행보는 오픈AI가 미션을 지키지 않았다는 비난을 몰고왔다. 오픈AI의 많은 직원이 동요했다. 내부 불안을 달래기 위해 경영진은 보안 수준이 매우 높은 문서의 일부로 FAQ를 작성했다. 한 질문은 “오픈AI를 신뢰할 수 있는가?”였고 “그렇다”고 시작하는 답변 뒤에는 한 단락의 설명이 이어졌다.

점심시간 내내 브록먼은 마치 회사의 존재와 관련한 모든 측면을 설명하는 경전인 것처럼 헌장을 열거했다. 더 고도로 발전된 AI 능력을 개발하면서도 인간이 계속해서 의미 있는 삶을 살 수 있도록 어떻게 보장할 것인가? “헌장에 적었듯이, 우리는 기술이 모든 사람에게 경제적 자유를 주고, 오늘날에는 상상할 수 없는 새로운 기회를 발견할 수 있게 해야 한다고 생각한다.” AGI을 균등하게 분배하기 위해서 어떤 방법을 구상하고 있는가? “나는 공익사업이 우리가 가진 비전에 대한 가장 좋은 비유라고 생각한다. 하지만 다시 말하자면, 그것도 모두 헌장의 적용을 받는다.” 안전을 보장하면서 AGI에 최초로 도달하기 위해 어떻게 경쟁할 것인가? “모두를 만족시킬 수 있는 중요한 방법이 있다고 생각하며, 이를 위해 우리가 택할 수 있는 최선의 방법은 헌장에 나와 있다.”

브록먼은 헌장을 엄격하게 지키는 것이 오픈AI의 구조를 유지하는 방법이라고 생각했다. 여러 측면에서 이러한 접근법은 분명히 효과가 있을 것이다. 그럼에도 불구하고 오픈AI는 인상적일 정도로 획일화된 문화를 가지고 있었다. 직원들은 장시간 일하고 같은 파티에 가고, ‘효과적인 이타주의(effective altruism)’라는 합리적인 철학에 동의한다. 그들은 자신의 삶을 설명할 때 머신러닝 용어를 사용해서 농담을 한다. “당신의 삶은 어떤 함수(function)인가?” “당신은 어디에 최적화되고 있는가?” “모든 것은 기본적으로 최소최대 함수(minmax function)이다.” 사실 다른 AI 연구자들도 이런 농담을 좋아하지만, 오픈AI에 익숙한 사람들은 이 분야의 다른 사람들보다 AI 연구를 업무가 아닌 정체성으로 여기는 경우가 많다는 점에 동의했다.

그러나 2019년 중반 어느 시점에 헌장은 단순한 점심시간 대화 주제거리 이상이 되었다. 수익 제한 기업으로 전환한 직후 경영진은 각 직원이 회사의 미션을 얼마나 잘 이행하는지를 기반으로 하는 새로운 임금 구조를 도입했다. ‘통합 기술 사다리(Unified Technical Ladder)’라는 제목의 스프레드시트 탭에서 ‘엔지니어링 전문성’과 ‘연구 방향’ 같은 항목과 함께 마지막 항목에는 기업 문화 관련 기대사항이 레벨별로 요약되어 있다. 레벨3: “오픈AI 헌장을 이해하고 내재화한다.” 레벨5: “자신과 팀원들이 담당하고 있는 모든 프로젝트를 헌장에 맞춘다.” 레벨7: “헌장을 지지하고 개선할 책임이 있으며, 조직 내 다른 사람들에게도 같은 책임을 요구할 수 있다.”

오픈AI 연구 발표 표지 이미지들이 사무실 벽에 걸려 있다.
Christie Hemm Klok
일리야 수츠케버, 공동 설립자 겸 최고과학자
Christie Hemm Klok

AGI에 도달하는 데 필요한 것과 관련해서 지배적인 기술 이론 두 개가 있다. 하나는 필요한 모든 기술이 이미 존재하기 때문에 그것을 확장하고 조립하는 방법을 알아내는 것이 중요하다. 두 번째는 완전히 새로운 패러다임이 필요하며, 현재 지배적인 AI 기술인 딥러닝(deep learning)으로는 충분하지 않다.

오픈AI가 내놓은 많은 성과는 엄청난 컴퓨터 자원을 다른 실험실에서 개발한 기술 혁신과 접목한 결과였다. 브록먼과 수츠케버는 이것이 오픈AI의 유일한 전략이라는 것을 부인하지만, 오픈AI가 철저하게 보안을 유지한 연구는 그렇지 않다는 것을 보여준다. ‘전망(Foresight)’이라는 이름의 연구팀은 점점 더 많은 데이터와 더 뛰어난 컴퓨터 연산 능력으로 기존의 알고리즘을 학습시키는 방식을 통해 AI의 능력을 얼마나 더 끌어올릴 수 있을지 테스트하는 실험을 수행했다. 이 실험 결과는 오픈AI가 컴퓨터 중심 전략에 집중하는 것이 최선의 접근법이라는 경영진의 생각에 확신을 주었다.

오픈AI는 이러한 지식을 자사의 주요 경쟁 도구로 보고 거의 반년 동안 실험 결과를 대중에게 공개하지 않았다. 직원들과 인턴들은 공개하지 말라는 지시를 받았고, 회사를 떠난 사람들은 비밀유지동의서에 서명했다. 2020년 1월, 오픈AI 연구팀은 어떠한 홍보도 없이 AI 연구에 대한 주요 오픈소스 데이터베이스 중 한 곳에 조용히 논문을 발표했다. 이 연구와 관련한 극도의 비밀주의를 경험한 사람들은 이 변화를 어떻게 생각해야 할지 알 수 없었다. 특히 다른 연구원이 비슷한 결과를 도출한 또 다른 논문은 이미 몇 달 전부터 게시된 상황이었다.

처음에는 이 정도의 비밀 유지를 의도하지 않았지만, 이후 습관화되었다. 이제 오픈AI와 협력하거나 그곳에서 일하는 사람들에게 침묵을 지키는 것은 중요한 일이 되었다. 여기에는 커뮤니케이션팀의 허가 없이는 기자들에게 아무 말도 하지 말아야 한다는 내용도 포함된다. 내가 사무실에 처음 방문하고 나서 직원들에게 연락을 취하자 커뮤니케이션팀 책임자는 모든 인터뷰 요청은 자신을 거쳐야 한다는 내용의 이메일을 보냈다.

오픈AI 대변인은 이렇게 지나친 비밀 유지에 대한 성명에서 헌장의 한 부분을 언급했다. 그 부분에는 “우리는 안전 및 보안에 대한 우려로 인해 향후에는 우리가 기존 방식의 연구 발표를 줄여야 하겠지만, 안전, 정책, 표준에 대한 연구 공유의 중요성은 커질 것으로 예상한다”고 명시되어 있다.

가장 큰 비밀은 오픈AI가 진행 중인 다음 프로젝트다. 소식통에 따르면 이 프로젝트는 오픈AI의 지난 4년간 진행한 연구의 정점으로, 엄청난 컴퓨터 자원을 사용하는 이미지, 텍스트 등 다양한 데이터로 학습한 AI 시스템이라고 한다. 전체 회사 회의에서 이 내용이 발표된 날, 인턴들은 회의 참석 허가를 받지 못했다. 이 프로젝트를 잘 아는 직원들은 경영진이 ‘이 프로젝트가 AGI에 도달하는 가장 유망한 방법’이라고 생각한다는 말을 전했다.

오픈AI 연구 책임자인 다리오 아모데이는 “우리는 AGI가 어떤 모습일지 모르기 때문에 다소 곤란한 면이 있다. 우선 AGI가 언제 가능할지에 대해 모른다”고 설명했다. 그리고 “사람의 생각에는 한계가 있다. 내가 발견한 가장 좋은 방법은 나와 다른 비전을 가진 안전 연구원들을 고용하는 것이다. 나는 그런 변화와 다양성을 원한다. 그것이 우리가 모든 것을 손에 넣을 수 있는 유일한 방법이기 때문이다”라고 덧붙였다.

다리오 아모데이, (전 오픈AI) 연구 책임자
Christie Hemm Klok

중요한 것은 오픈AI에는 사실 ‘변화와 다양성’이 거의 없다는 것이다. 나는 이 사실을 오픈AI 사무실에 방문한 지 사흘째 되는 날 뼈저리게 느꼈다. 점심시간에 직원들과 어울리고자 했던 나는 눈에 띄게 다양한 사람이 앉아 있는 테이블 끝에 앉았다. 1분도 지나지 않아 그 테이블에 앉아 있는 사람들이 오픈AI 직원이 아니라는 것을 알았다.

연구소 대변인에 따르면, 120명 이상의 직원 중 여성이거나 논바이너리(nonbinary: 남성이나 여성으로 자신을 정의하지 않는 제3의 성)에 해당하는 사람은 25%였다. 그녀는 임원 중에 여성이 두 명 있으며 책임자의 30%가 여성이라고 말했지만, 여기에 누가 속하는지는 구체적으로 밝히지 않았다. (브록먼과 올트먼을 포함해서 네 명의 최고경영자는 모두 백인 남성이다. 링크드인(LinkedIn) 및 다른 출처에서 확인한 112명 이상의 직원도 대부분 백인 또는 아시아인이었다.)

사실 이러한 다양성 부족은 AI 분야의 전형적인 현상이다. 2019년 뉴욕에 본사를 둔 연구기관 AI나우(AI Now)가 발표한 보고서에 따르면, 선도적인 AI 컨퍼런스 저자 중에 여성은 고작 18%에 불과하며 AI 교수직에서 여성이 차지하는 비율은 20%, 구글과 페이스북의 연구진 중 여성은 각각 15%, 10%에 불과했다. 오픈AI의 대변인은 “분명히 학계와 산업계 전반에 걸쳐 해야 할 일이 많이 있다”고 말했다. 그러면서 “다양성과 포용성은 우리가 진지하게 여기는 요소이며, WiML, 걸 긱(Girl Geek) 및 우리의 연구장학생(Scholars) 프로그램 등 다양한 이니셔티브와 협력하여 지속적으로 개선하기 위해 노력하고 있는 과제이기도 하다”고 덧붙였다.

실제로 오픈AI는 인재풀을 넓히기 위해 노력해왔다. 오픈AI는 2018년, 소외된 소수자들을 위한 원격 연구장학생 프로그램을 시작했다. 그러나 장학생들이 오픈AI와의 경험을 긍정적이라고 보고했는데도 최초로 뽑힌 8명의 연구원 중 2명만이 정규직으로 채용되었다. 근무를 거절한 가장 흔한 이유는 샌프란시스코에 거주해야 한다는 요건이었다. 오픈AI의 연구장학생이었고 현재는 뉴욕 기반 회사에서 수석 머신러닝 엔지니어로 근무하는 나자 로즈(Nadja Rhodes)는 샌프란시스코가 다양성이 매우 부족한 도시라고 말했다.

브록먼이 회사의 미션을 언급하면서 자주 말하는 것과는 달리, 오픈AI가 AGI의 이익을 모든 인류에게 ‘어떻게’ 분배할 계획인지도 명확하지 않다. 경영진은 이에 대해 모호한 용어로 말하고, 자세한 계획을 구체화하는 작업은 거의 하지 않았다. 익명을 요청한 오픈AI의 전직 직원은 “그것이 오픈AI에 대해 내가 생각하는 가장 큰 문제”라고 털어놓았다.

Christie Hemm Kick

브록먼은 오픈AI가 미션을 완수하려면 기술뿐만 아니라 사회에 대한 전문지식도 필요할 거라는 데 동의한다. 그는 “처음부터 윤리적 문제를 해결할 수는 없다”면서 “윤리를 정확히 어떻게 고려해야 하는가, 아니면 다른 관점들을 어떻게 고려해야 하는가? 그리고 그것들을 언제, 어떻게 도입해야 하는가? 추구해야 할 한 가지 전략은 처음부터 필요할 가능성이 있는 모든 것을 고려해야 한다. 하지만 나는 그 전략이 성공할 것 같지 않다”고 말했다.


2019년 수익 제한 영리 기업으로 전환하고 마이크로소프트로부터 10억 달러의 자금이 투입되고 한동안 달라진 것이 없어 보였다. 프로젝트도 그대로 지속됐다. 많은 직원이 마이크로소프트 쪽에 어떤 약속을 했는지 알지 못했다. (편집자 주: 오픈AI 경영진은 마이크로소프트에 투자를 받는 조건으로 GPT-3 독점권을 허가했다.)

그러나 최근 몇 달 동안 상용화 압력이 심해지면서 수익 창출을 위한 연구의 필요성이 커지고 있다. 올트먼은 오픈AI에 대한 자신의 2020년 비전을 직원들에게 공유하며 다음과 같은 메시지를 전했다. “오픈AI는 연구하기 위해서 돈을 벌어야 한다. 물론 그 반대는 성립하지 않는다.”

경영진은 (연구비 지원이 부족한 상황을 만회하기 위해서는) 어렵지만 타협이 필요하다고 말했다. 상황적 압박은 오픈AI가 원래 의도에서 점점 더 멀어지게 하고 있다. 오픈AI는 연구 자금과 인재를 유치하기 위해 과대광고를 수용하고, 경쟁 우위를 유지하기 위해 연구를 숨기고, 더 많은 데이터와 연산 능력을 활용하는 전략을 선택했다.

오픈AI는 여전히 인재와 첨단 연구의 요새로 남아있다. 인류의 이익을 위해 진심으로 노력하는 사람들로 가득 차 있다. 오픈AI는 여전히 가장 중요한 요소를 가지고 있기 때문에 변화할 시간은 충분하다.

원격 연구장학생이었던 로즈와의 인터뷰가 거의 끝날 무렵, 나는 여기서 빠뜨려서는 안 될 오픈AI에 관한 한 가지 내용을 그녀에게 물어보았다. 그녀는 머뭇거리며 “분명 문제가 있다. 내 생각에 문제 중 일부는 오픈AI가 직면한 환경에서 비롯된 것이다. 또 다른 문제들은 오픈AI가 끌어들이는 유형의 사람들과 소외된 사람들로 인한 것이다”라고 밝혔다. 이어 다음과 같이 말했다. “하지만 내가 보기에 그들은 조금은 제대로 하고 있다. 오픈AI에 있는 사람들은 진지하게 노력하고 있다.”