The Fight to Reclaim AI

다윗과 골리앗의 싸움?…빅테크에 맞선 AI 연구원들

인공지능(AI) 연구에 '빅테크'로 불리는 대형 기술 기업들이 뛰어들면서 많은 연구자들이 사회 문제 해결에 도움이 되는 기술보다는 더 많은 수익을 창출할 수 있는 기술 연구에 집중하고 있다. 빅테크 기업들이 AI 분야를 사실상 장악하고 있는 상황에서 기업이 아니라 우리 모두에게 필요한 기술을 개발하기 위해 움직이고 있는 소규모 비주류 연구자들의 노력을 살펴본다

팀닛 게브루(Timnit Gebru)는 한 편의 과학 논문 때문에 자신이 엄청난 곤경에 빠질 것이라고 전혀 예상하지 못했다.

2020년 구글 AI 윤리팀의 공동 책임자였던 게브루는 에밀리 벤더(Emily Bender) 워싱턴 대학교의 언어학 교수에 연락해 함께 인공지능(AI)의 문제점에 대한 공동 연구에 착수했다. 게브루는 최근 AI 연구 분야에서 가장 놀라운 혁신 중 하나로 평가되는 ‘대규모 언어 모델(Large language model)’이 초래할 수 있는 위험을 구체적으로 파악하고 싶었다. 대규모 언어 모델이란 엄청난 양의 텍스트를 학습하도록 훈련된 알고리즘을 말한다. 적당한 조건이 갖춰친 상태에선 이 모델은 사람이 쓴 것 같은 복잡한 문장을 생성해낼 수 있다. 사람과 같이 기사를 쓰거나 대화를 자연스럽게 이어 나가는 서비스가 대표적인 대규모 언어 모델에 기반한 AI 서비스들이다.

지난 몇 년 동안 기술 기업들은 더 거대한 언어 모델을 구축하여 제품 판매에 활용하기 위해 경쟁해왔다. 본 기술을 개발한 구글은 이를 통해 검색 엔진의 성능을 개선해오고 있었다. 또 인공지능 연구소인 오픈AI(OpenAI)는 2020년 6월에 ‘GPT-3’라는 최대 규모의 언어 모델을 발표하고 몇 달 뒤 마이크로소프트에 GPT-3 독점 사용권을 부여했다.

게브루는 대규모 언어 모델 기술이 지나치게 빠르게 활용되고 있는 상황을 우려했다. 벤더 교수를 포함해 연구원 6명과 함께 집필하고 자신이 마무리한 논문에서 그녀는 대규모 언어 모델이 초래할지 모를 잠재적인 위험 요소들을 상세하게 기술했다. 예를 들어, 대규모 언어 모델을 생성하는 데에는 환경적(거대 언어 모델에는 엄청난 연산력이 필요하다)으로나 경제적으로 상당한 비용이 들었고, 그런 언어 모델은 인터넷에서 해롭고 폭력적인 언어를 학습하는 일이 많았다. 이러한 문제가 있는데도 대규모 언어 모델은 다른 유망한 대안들을 밀어내고 언어 AI 연구 분야를 장악하게 되었다.

현존하는 다른 AI 기술들과 마찬가지로 대규모 언어 모델도 실제로 언어를 이해하지는 못한다. 그러나 언어를 능숙하게 조작하여 사용자를 위한 텍스트 기반의 정보를 검색하거나 자연스러운 대화를 생성할 수 있기 때문에, 기술 기업에 많은 수익을 가져다줄 제품과 서비스에 이용될 수 있다.

그해 11월 게브루는 학회에 논문을 제출했다. 그러자 곧바로 구글 경영진은 게브루에게 논문 철회를 요구했고, 게브루가 거절하자 그녀를 해고했다. 그로부터 두 달 뒤, 구글은 게브루와 AI 윤리팀을 공동으로 이끌고 있던 논문의 공동 저자 마거릿 미첼(Margaret Mitchell)도 해고했다.

구글이 AI 윤리팀을 해체한 것은 최근 AI 업계에 있었던 일 중에 가장 큰 논란을 불러일으킨 사건이었다. 구글을 옹호하는 이들은 구글에 자사의 연구원들을 감독할 권리가 있다고 주장했다. 그러나 다른 많은 이들은 이 사건이 AI 업계에 거대 기술 기업 또는 빅테크(Big Tech)가 얼마나 큰 영향력을 행사하고 있는지 확실히 보여줬다고 생각한다. 빅테크는 현재 AI 연구자들을 고용하고 그들에게 연구비를 지원하는 주요 주체이다. 다소 아이러니하게도, 그렇게 연구비를 지원받은 연구자의 상당수는 AI가 사회에 미치는 영향도 평가하고 있다.

AI 기술 개발 경쟁하는 빅테크 기업들

세계에서 가장 돈이 많고 강력한 기업으로 여겨지는 구글, 페이스북, 아마존, 마이크로소프트, 애플은 AI를 핵심 사업으로 간주하고 있다. 지난 10년 동안 특히 ‘딥러닝(Deep learning)’ 기술이 진보하면서, 이러한 기업들은 사용자의 행동을 관찰하고, 뉴스, 정보, 상품을 사용자에게 추천할 수 있었으며, 무엇보다도 사용자 맞춤 광고를 제공할 수 있었다. 작년에 구글의 광고 부서는 1,400억 달러(한화 약 162조 7,000억 원) 이상의 수익을 올렸고, 페이스북도 840억 달러를 벌었다.

기술 기업들은 그렇게 엄청난 수익을 안겨주는 AI 기술에 상당한 규모의 연구비를 투자해왔다. 구글의 모회사 알파벳(Alphabet)은 2014년에 영국의 AI 연구 기업 딥마인드(DeepMind)를 6억 달러에 인수한 뒤 매년 수억 달러를 딥마인드에 투자하고 있다. 마이크로소프트도 2019년에 오픈AI와 10억 달러 규모의 계약을 체결하여 오픈AI의 알고리즘에 대한 상용화 권리를 획득했다.

동시에 빅테크들은 대학교에서 진행되는 AI 연구에도 상당한 금액을 투자했고, 그 결과 연구의 과학적 우선순위에도 상당한 영향을 미치게 되었다. 그렇게 수년이 지나면서 대학교를 떠나 빅테크로 옮기거나, 대학과 기업에 이중으로 몸담는 과학자들이 점점 더 늘어났다. AI 분야의 권력관계에 맞서고자 하는 연구자들로 구성된 단체, ‘래디컬 AI 네트워크(Radical AI Network)’가 진행한 연구에 따르면, 가장 영향력 있는 AI 학회 두 곳에서 가장 많이 인용된 논문 가운데 빅테크와 연계한 저자가 한 명 이상 포함된 논문의 비율이 10년 전에는 11%에 불과했으나, 2018년에서 2019년 사이에는 무려 58%로 늘어났다고 한다.

돈벌이가 되는 AI 기술에만 관심

문제는 기업들이 주로 상업적인 잠재력을 가진 AI 기술에만 관심이 있고, 경제적 불평등과 기후변화 등의 문제를 해결하기 위한 연구에는 대체로 무관심하다는 것이다. 사실 기업들의 이러한 태도가 그런 사회 문제를 악화시키고 있다는 지적도 나오고 있다.

기업들이 업무를 자동화하면서 일자리가 사라졌고, 데이터 정리와 콘텐츠 관리같이 지루한 작업만 늘어났다. 또한 기업들이 훨씬 더 큰 모델을 만들기 위해 경쟁하면서 AI의 에너지 소비가 폭발적으로 증가하게 되었다. 딥러닝 또한 얼굴인식 시스템 같은 알고리즘을 훈련시키기 위해 인터넷의 데이터를 주로 동의 없이 계속 수집하는 문화를 만들어냈다. 그리고 추천 알고리즘은 정치적 양극화를 악화시켰고, 대규모 언어 모델은 온라인상의 가짜 정보를 정화하는 데 실패했다.

게브루와 같은 생각을 가진 학자들과 게브루가 바꾸고자 하는 것이 바로 이런 상황이다. 지난 5년 동안 이러한 학자들은 AI 기술 개발에 참여하는 과학자 수를 늘려서 다양한 연구가 이루어질 수 있는 환경을 조성하고, 이를 통해 AI 분야의 우선순위를 단순히 기술 기업의 배를 불리는 것에서 다른 것으로 바꾸기 위해 노력해왔다. 이들의 목표는 현재 시스템이 초래하는 피해를 줄이는 것뿐만 아니라 새롭고 더 평등하며 민주적인 AI를 만드는 것이다.

AI 투자 열기의 이면

2015년 12월, 게브루는 공개 서신을 작성하기 위해 자리에 앉았다. 스탠퍼드 대학교에서 박사과정을 절반 정도 마친 연구원이었던 시절에 게브루는 규모가 가장 큰 연례 AI 학회인 ‘신경정보처리시스템 학회(Conference on Neural Information Processing Systems, 이하 ‘NeurIPS’)’에 참석했다. 그곳에 모인 3,700명이 넘는 연구자 중에서 흑인은 게브루를 포함해 다섯 명뿐이었다.

틈새 학문 주제에 관한 소규모 모임이었던 NeurIPS는 빠른 속도로 성장하여 가장 큰 AI 행사가 되어가고 있었다. 세계에서 가장 부유한 기업들이 찾아와서 데모를 과시하고, 호화로운 파티를 열고, 당시 실리콘밸리에서 가장 찾기 어려운 사람들, 바로 숙련된 AI 연구자들에게 엄청난 연구비를 지급했다. 

그해에 일론 머스크는 비영리 벤처 ‘오픈AI’를 설립했다고 발표했다. 일론 머스크와 ‘와이콤비네이터(Y Combinator)’의 당시 대표였던 샘 올트먼(Sam Altman), 페이팔의 공동설립자 피터 틸이 10억 달러를 투자하여 ‘언젠가 초지능이 세계를 지배할 수도 있다’는 예측에 대응하고자 했던 것이다. 이들이 생각한 대응책은 더 뛰어난 초지능을 개발하는 것이었다. 이 프로젝트 진행을 위해 머스크가 자문위원이나 기술팀 구성원으로 선택한 14명 중에서 11명이 백인 남성이었다.

그렇게 머스크가 AI 업계에서 대단한 사람으로 추앙받고 있을 때, 게브루는 굴욕과 괴롭힘에 맞서고 있었다. 학회 파티에서 ‘구글 연구팀’ 티셔츠를 입은 술 취한 남성 한 무리가 게브루를 둘러싸고 강제로 끌어안거나 게브루의 볼에 키스를 하면서 사진을 찍었다.

남성 문화가 지배적인 AI 업계

게브루는 자신을 희롱하던 광경, AI 업계의 유명인에 대한 사이비종교 같은 숭배, 그리고 무엇보다도 AI 업계의 엄청난 성비 불균형 등 자신이 관찰한 것들에 대해 신랄한 비판을 작성했다. 그녀는 남성들로 가득한 문화가 AI 업계에 진입하려는 재능 있는 여성들을 밀어내고 있다고 썼다. 또한 이러한 성비 불균형으로 인해 AI나 AI가 세상에 미치는 영향을 바라보는 AI 업계의 시야도 위험할 정도로 좁아지고 있다고 적었다.

특히 게브루는 구글이 흑인을 고릴라로 분류했던 ‘컴퓨터 비전 알고리즘(Computer-vision algorithm)’을 사용했다는 점에 주목했다. 또한 무인 항공기 기술이 점점 더 정교해지면서 미국 군대는 치명적인 자동화 무기를 사용하는 방향으로 나아가고 있었다. 그러나 이런 부분들은 머스크가 자신의 이론적인 미래 시나리오에 따라 AI가 세상을 지배하지 못하도록 막겠다며 제시한 ‘위대한 계획’에서 전혀 언급되지 않았다. 게브루는 이렇게 적었다. “AI가 가져올 수 있는 부정적인 결과를 알아보겠다고 굳이 미래를 상정할 필요가 없다. 그런 일은 이미 일어나고 있기 때문이다.”

게브루는 자신의 이러한 생각을 공개적으로 발표하지 않았다. 그러나 무언가 변화가 필요하다는 사실을 깨닫게 되었다. 2016년 1월 28일, 게브루는 다섯 명의 흑인 연구원들에게 ‘안녕하세요, 팀닛입니다(Hello from Timnit)’라는 제목의 이메일을 보냈다. 이메일에서 게브루는 “AI 분야에 유색인종이 부족하다는 사실이 늘 안타까웠다”라고 말하며, “그러나 이제 여러분 다섯 명을 알게 되었으니, 우리가 AI 흑인 연구자 모임을 만들거나 아니면 그냥 서로 알고만 지내도 좋을 것 같다는 생각이 들었다”라고 썼다.

이메일은 논의로 이어졌다. ‘흑인이라는 것이 연구에 어떤 영향을 미치는가?’ 게브루에게 연구는 자신의 정체성과 깊은 연관이 있었지만 다른 이들에게는 아니었다. 그러나 만남 이후에 그들은 AI가 사회에서 더 큰 역할을 하게 된다면, 더 많은 흑인 연구자가 필요해질 것이라는 점에 동의했다. 그렇지 못하면 AI 분야는 점점 더 빈약한 결과물을 내놓게 될 것이고, 그러면 AI가 가져올 부정적인 결과가 더 나빠질 수도 있기 때문이었다.

돈만 밝히는 연구원들

AI를 연구하는 흑인 연구자들의 모임 ‘블랙인에이아이(Black in AI)’가 막 형태를 갖추기 시작할 무렵 AI는 상업적으로 큰 진전을 보이고 있었다. 맥킨지 글로벌 연구소(McKinsey Global Institute)에 따르면 2016년에 빅테크들은 AI 기술 개발에 200억에서 300억 달러 정도를 투자했던 것으로 추정된다.

빅테크의 엄청난 투자로 과열된 AI 분야는 점차 ‘뒤틀리게’ 되었다. 투자 덕분에 수천여 명의 연구원들이 AI 연구에 뛰어들었으나, 그들 대부분은 대규모 언어 모델의 기반이기도 한 ‘딥러닝 알고리즘’을 연구하고 싶어 했다. 수레시 벤카타수브라마니안(Suresh Venkatasubramanian) 백악관 과학기술정책실(White House Office of Science and Technology Policy) 컴퓨터과학 교수는 “기술 기업에 취업하고자 하는 젊은 박사과정 학생들은 기술 기업들이 딥러닝에만 매진하고 있다는 사실을 깨닫고 연구 주제를 딥러닝으로 바꾸게 된다. 그러면 다음에 들어오는 박사과정 학생들도 상황을 보고 ‘모두 딥러닝만 연구하고 있으니 나도 그걸 연구해야겠다’고 생각하게 되는 것이다”라고 말한다.

그러나 AI 분야에는 딥러닝 외에도 연구할만한 가치가 있는 다양한 기술이 존재한다. 딥러닝이 유행하기 전에는 ‘기호 추론(Symbolic reasoning)’이라고 불리는 AI 기술이 있었다. 딥러닝은 정보 간의 의미 있는 관계에 관하여 알고리즘을 학습시키기 위해 엄청난 양의 데이터를 사용하지만, 기호 추론은 인간의 전문지식을 기반으로 지식과 논리를 명시적으로 부호화하는 데 초점을 맞춘다.

현재 일부 연구자들은 두 기술을 결합해야 한다고 생각한다. 두 기술을 결합하면 AI가 데이터와 에너지를 더 효율적으로 사용할 수 있게 될 것이다. 또한 AI는 스스로 새로운 정보를 업데이트하는 능력뿐만 아니라 전문가의 지식과 추론 능력까지 가질 수 있게 될 것이다. 그러나 더 거대한 모델을 만드는 것이 기업의 수익을 극대화할 가장 확실한 방법으로 보이는 현 상황에서 기업들은 대안이 될 수 있는 다른 기술을 연구하려는 의욕이 거의 없다.

편향된 AI 연구의 문제점

논문에서 게브루와 벤더는 기업들이 계속 딥러닝에만 몰두할 경우 우려되는 상황을 넌지시 언급했다. 우리에게 필요한 AI 시스템을 개발하여 더 발전시키지 않으면 비슷한 문제가 계속 발생한다는 것이다. 예를 들어, 페이스북은 자동화된 콘텐츠 관리 시스템을 사용하기 위해 대규모 언어 모델에 상당히 의존하고 있다. 그러나 그런 언어 모델들은 텍스트에 담긴 진정한 의미를 이해하지 못하기 때문에 자주 기대에 미치지 못하는 결과를 보여준다. 이를테면 혐오 표현과 가짜 정보는 통과시키면서 무고한 게시글을 내리는 식이다.

AI 기반의 얼굴인식 시스템도 같은 문제로 몸살을 앓았다. 얼굴인식 시스템은 방대한 데이터를 이용해 학습하지만, 눈, 입, 코와 같은 시각적 개념을 이해하는 것이 아니라 그저 이미지의 픽셀 패턴만을 읽을 뿐이다. 따라서 학습에 사용한 사진 속 사람들과 다른 피부색을 가진 사람들의 사진에 얼굴인식 시스템을 사용하면 인식률이 떨어질 수 있다. 그런데도 아마존을 비롯한 기업들은 이러한 얼굴인식 시스템을 법 집행 기관에 판매하고 있다. 작년에 미국에서 얼굴인식 시스템 오류로 경찰이 무고한 사람을(모두 흑인 남성이었다) 오인 체포한 사례 중에 알려진 사례만 세 건이다.

수년 동안 AI 업계의 많은 이들은 이러한 기술이 개발되는 방향과 그로 인한 결과에 빅테크가 미치는 영향에 관해 대체로 묵인했다. 일부 연구자들은 기술 기업이 AI 업계를 장악하고 있는 상황에 대해 불편함을 표했으나 대부분의 연구자들은 기술 기업의 자금력과 투자를 환영했다.

그러나 AI가 사회 문제를 해결하기는커녕 오히려 악화시키고 있음을 보여주는 사례가 점점 늘어나면서 오늘날 AI의 결점이 더욱 분명하게 드러나게 되자 빅테크를 향한 신뢰가 약해지고 있다. 특히 게브루와 미첼을 해고한 구글의 결정은 기업들이 스스로를 감시하기보다는 그저 이윤만을 우선시할 것이라는 사실을 드러내면서 논쟁에 불을 지폈다.

두 사람을 해고한 구글 결정의 즉각적인 여파로 2,600여 명에 달하는 구글 직원과 4,300명의 다른 사람들까지 게브루의 해고를 “전례 없는 연구 검열 행위(unprecedented research censorship)”라고 비난하는 청원에 서명했다. 그로부터 반년이 지났지만 연구자 단체들은 여전히 구글의 자금 지원을 거절하고 있고, 연구자들은 구글의 학회 워크숍 참여를 거부하고 있으며, 직원들은 항의의 의미로 회사를 떠나고 있다.

5년 전 게브루가 이러한 질문을 처음 제기했을 때와는 달리 이제는 AI가 어떤 역할을 해야 하는지, 그리고 AI가 누구를 위한 것이어야 하는지 질문을 던지는 체계적인 움직임이 존재한다. 이러한 변화는 단순한 우연이 아니다. 이는 더 많은 흑인 연구자들을 AI 분야로 불러들인 게브루 자신의 결단력의 산물이라고 할 수 있다.

뭉쳐야 한다

2017년 12월, ‘블랙인에이아이’ 모임은 NeurIPS에서 첫 번째 워크숍을 주최했다. 워크숍을 준비하면서 게브루는 상업용 얼굴인식 시스템에 편향이 존재하는지 연구하고 있는 MIT 미디어랩(MIT Media Lab)의 연구원 조이 부올람위니(Joy Buolamwini)에게 접근했다. 부올람위니는 흰색 마스크를 쓰고 있지 않았는데도 얼굴인식 시스템 하나가 자신의 얼굴인식에 실패하자 얼굴인식 시스템을 테스트하기 시작했다. 그녀는 워크숍에 자신의 예비 연구 결과를 제출했다.

당시 학부생 연구원이었던 데보라 라지(Deborah Raji) 역시 초기 참여자 중 한 명이다. 라지는 NeurIPS에 참석하여 직접 목격한 문화에 큰 충격을 받았고, 게브루의 워크숍을 통해 그러한 충격에서 잠깐이나마 벗어날 수 있었다. 라지는 “나와 비슷한 사람들이 AI 업계에서 성공한 이야기를 듣는 것이 매우 큰 격려가 되었다”라고 말한다.

부올람위니, 라지, 게브루는 차별적인 컴퓨터 비전 시스템에 관한 획기적인 연구 두 개를 함께 진행했다. 부올람위니와 게브루는 얼굴인식 시스템에 내재된 성차별과 인종 편견을 다룬 ‘젠더 셰이즈(Gender Shades)’라는 제목의 논문을 공동 집필했다. 이 논문은 마이크로소프트, IBM, 중국의 거대 기술 기업 메그비(Megvii)가 판매한 얼굴인식 시스템이 백인 남성에 대해서는 거의 완벽한 성능을 자랑하면서도 흑인 여성에 대해서는 인식 실패율이 상당히 높았음을 보여준다. 라지와 부올람위니는 ‘액셔너블 오디팅(Actionable Auditing)’이라는 제목의 후속 논문을 공동 작업했는데, 이 연구에서는 이전 연구에서 발견한 내용이 아마존의 얼굴인식 시스템 ‘레코그니션(Rekognition)’에도 똑같이 적용된다는 사실을 발견했다. 2020년에 아마존이 경찰에 판매한 자사의 상품을 1년간 중단하는 데 합의한 배경에는 이 논문의 역할도 있었다.

그러나 첫 번째 ‘블랙인에이아이’ 워크숍에서는 이러한 성과가 아주 먼 미래의 일로만 느껴졌다. 당시의 논의 주제는 흑인 연구자 모임을 만들고, 유색인종에 대한 AI 업계의 인식 부족을 바탕으로 연구를 진행하자는 것뿐이었다. 많은 구경꾼들은 그런 모임이 존재해야 하는 이유를 이해하지 못했다. 게브루는 블랙인에이아이를 두고 AI 업계의 일부 인물들이 무시하는 듯한 말을 했던 것을 기억하고 있다. 그러나 이 모임이 새로운 미래를 보여주고 있는 것처럼 느낀 인물들도 있었다.

그런 인물 중에는 윌리엄 애그뉴(William Agnew)와 라파엘 곤티조 로페스(Raphael Gontijo Lopes)가 있다. 컴퓨터과학을 연구하는 성소수자인 두 사람은 자신들도 ‘퀴어인에이아이(Queer in AI)’ 모임을 만들 수 있다는 사실을 깨달았다. (비슷한 형태의 다른 모임으로는 ‘라틴X인에이아이(Latinx in AI)’, ‘{디스}어빌리티인에이아이({Dis}Ability in AI)’ 등이 있다.) 특히 애그뉴에게는 그런 모임을 만드는 것이 매우 시급한 일로 느껴졌다. 애그뉴는 AI 분야에 성소수자 롤모델이 부족하다는 사실을 떠올리며, “나 자신이 행복한 삶을 사는 모습조차 상상하기 어려웠다”라고 말한다. 그러면서 “앨런 튜링(Alan Turing)이 있기는 하지만 그는 자살했기 때문에 롤모델로 삼기에는 조금 우울한 면이 있다. 그리고 튜링에 대해 논할 때 그의 성적지향에 관한 부분은 쉽게 무시되곤 한다”라고 덧붙인다.

이러한 소모임 구성원 모두가 자신들의 정체성과 연구 사이에 연관성이 있다고 생각하는 것은 아니다. 그렇지만 각 모임은 그들만의 특별한 전문지식을 구축해왔다. 블랙인에이아이는 알고리즘의 차별을 노출하고 감시를 비판하며 데이터 효율성이 뛰어난 AI 기술을 개발하는 부분에서 중심 역할을 하게 되었다. 퀴어인에이아이는 알고리즘이 사람들의 사생활을 침해하고, 사람들을 제한적인 카테고리에 분류하는 방식에 이의를 제기하는 부분에서 중심이 되었다.

벤카타수브라마니안과 게브루는 AI의 사회적, 정치적 영향을 연구할 토론의 장을 마련하기 위해 ‘공정, 책임, 투명 학회(Fairness, Accountability, and Transparency conference, 이하 “FAccT”)’의 설립을 돕기도 했다. NeurIPS 소모임 워크숍에서 논의된 아이디어와 논문 초고는 종종 FAccT에 발표되는 논문의 기반이 되며, 그러면 FAccT에서는 더 많은 청중에게 연구를 보여줄 수 있다.

예를 들어, ‘젠더 셰이즈’는 첫 번째 블랙인에이아이 워크숍에 부올람위니가 참석한 이후에 FAccT에서 발표됐다. 이 논문과 ‘액셔너블 오디팅’ 덕분에 정부의 얼굴인식 사용을 제한하기 위한 몇 개의 캠페인이 힘을 얻기도 했다. 아마존이 두 연구의 정당성을 약화시키려고 하자 수십 명의 AI 연구자들과 수많은 시민사회단체들이 함께 뭉쳤고, 이는 나중에 게브루가 부당하게 해고당했을 때도 마찬가지였다. 이러한 노력이 결국 아마존의 얼굴인식 시스템 사용 중단으로 이어지게 되었고, 지난 5월에 아마존은 사용 중단 기간을 무기한 연장하겠다고 발표했다.

또한 위의 연구 덕분에 각 지자체에서 잇따라 규제 방안을 내놓게 되었다. 10여 개의 도시에서는 경찰의 얼굴인식 시스템 사용을 금지했고, 매사추세츠주에서는 경찰이 얼굴인식 시스템을 사용하려면 판사의 허가를 받도록 했다. 미국과 유럽연합 집행위원회(EC)도 추가적인 규제를 제안했다.

게브루는 이렇게 말한다. “처음에 우리는 그저 그곳에 있어야 했다. 그러다가 어느 순간 블랙인에이아이가 하는 말이 중요해지기 시작했고, 우리와 비슷한 모든 모임들이 하는 말도 중요해지고 있다. 이제 사람들은 우리 이야기를 들어야 한다.”

연구비 문제

게브루와 미첼이 해고된 이후 AI 분야는 아주 오래된 질문의 답을 찾기 위해 다시 씨름하고 있다. 그 질문이란, ‘내부에서 일하면서 현 상태를 바꾸는 것이 가능한가?’이다. 게브루는 여전히 빅테크와 함께 일하는 것이 문제를 파악하는 가장 좋은 방법이라고 생각한다. 그러나 그러면서도 기업에 몸담고 있는 연구자들에게 더 강력한 법적 보호 방안이 필요하다고 생각한다. 연구원들이 위험한 관행을 목격했을 때, 커리어에 위협을 느끼지 않고도 자신들이 목격한 것을 공개적으로 말할 수 있어야 하기 때문이다.

그러면 자금 문제가 있다. 많은 연구원들은 상업용 AI 개발을 비판하고 대중의 복지를 향상시키는 연구에 미국 정부가 더 많이 투자하기를 원한다. 그러나 작년에 미국 정부가 방위산업과 관계되어 있지 않은 AI 연구에 사용한 돈은 고작 10억 달러에 불과했다. 바이든 행정부는 AI를 최우선 과제로 생각하며 신생 기술에 1,800억 달러를 추가로 투자하라고 의회에 요청하고 있다.

그러한 자금 지원은 캘리포니아대학교 버클리 캠퍼스의 컴퓨터과학 조교수 레디엣 아베베(Rediet Abebe) 같은 사람들에게 도움이 될 수 있다. 아베베는 AI를 이용하여 사회적 형평성을 제고하고자 AI 분야에 발을 들였다. 그러나 그녀가 코넬대학교에서 박사과정을 시작했을 때 그런 연구를 하는 이는 아무도 없었다.

2016년 가을, 박사과정 학생이었던 아베베는 주거 불안정, 의료서비스 접근성, 불평등 같은 주제를 연구하기 위하여 동료 대학원생들과 소규모 코넬 독서 모임을 시작했다. 그러고 나서 그녀는 빈곤을 완화하려는 노력에 자신의 컴퓨터 관련 기술을 활용할 수 있을지 알아보기 위해 새로운 프로젝트를 시작했다.

아베베는 마침내 ‘빈곤 추적(Poverty Tracker)’ 연구를 발견했다. 연구는 2천여 뉴욕 가구를 조사하여, 이를테면 의료비나 주차 위반 과태료처럼 예상치 못한 비용이 발생했을 때 그들이 경험한 경제적 충격에 관해 상세한 데이터를 정리한 것이었다. 연구의 저자들과 사회복지사들, 소외된 커뮤니티를 위해 일하는 비영리단체 등과 많은 대화를 나누면서 아베베는 그들에게 필요한 것이 무엇인지 알게 되었고, 자신이 그들을 어떻게 도울 수 있는지 방안을 생각하여 전달했다. 그러고 나서 그녀는 그러한 경제적 충격의 빈도와 종류가 가구의 재정 상태에 어떤 영향을 미치는지 보여주는 모델을 개발했다.

5년이 지난 현재, 프로젝트는 여전히 진행 중이다. 아베베는 자신의 모델을 개선하기 위해 비영리단체와 협력하고 있으며, 해당 모델을 노숙자 문제 해결을 위한 도구로 사용하기 위해 캘리포니아 정책연구소(California Policy Lab)를 통해 정책입안자들과 함께 일하고 있다. 그동안 그녀의 독서 모임은 2,000명 규모의 커뮤니티로 성장하여 올해 말에 창립 학회를 열 예정이다.

아베베는 이번 학회를 더 많은 연구자들이 AI의 표준을 뒤집을 수 있도록 장려할 기회로 보고 있다. 기존의 컴퓨터과학 학회가 컴퓨터의 연산 능력 향상을 강조했다면, 새로운 학회는 우선 사회 문제를 깊이 이해하고자 하는 연구를 발표할 것이다. 연구는 기술적이기도 하겠지만, 사회적으로 더 의미 있는 AI가 등장할 수 있도록 기반을 마련하는 데 초점을 맞출 것이다. 

아베베는 말한다. “우리가 성취하기 위해 싸우고 있는 이러한 변화는 사회적으로 소외된 이들만을 위한 것이 아니다. 사실 우리 모두를 위한 것이다.”

Karen Hao는 MIT 테크놀로지 리뷰 AI 팀의 수석편집자이다.

미리보기 3회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.