Why business is booming for military AI startups

군용 AI 개발 스타트업들이 호황을 누리고 있는 이유

러시아의 우크라이나 침략을 계기로 각국의 군대가 AI를 비롯한 신기술을 도입하려고 한다. 이에 따라 실리콘밸리의 스타트업들이 이익을 누릴 것으로 보인다.

지난 2월 러시아가 우크라이나를 침공하고 정확히 2주가 지났을 때 데이터 분석 업체 팔란티어(Palantir)의 최고경영자(CEO) 알렉산더 카프(Alexander Karp)가 유럽 각국 지도자들에게 자신의 주장을 펼쳤다. 공개서한을 통해 그는 코앞에서 벌어진 전쟁을 목도하고 있는 유럽 국가들이 실리콘밸리의 도움을 바탕으로 무기를 현대화해야 한다고 주장했다.

카프는 서한에서 “유럽이 외세의 점령 위협을 물리칠 수 있을 정도로 강한 군사력을 유지하려면 각국이 기술과 국가의 관계, 다시 말해서 단단하게 자리 잡은 방위산업체들을 몰아내려는 기술기업들과 자금을 지원하는 연방 정부 부처들 간의 관계”를 포용해야 한다고 적었다.

세계 여러 군대는 카프의 주장에 응답하듯이 움직이고 있다. 북대서양조약기구(NATO)는 6월 30일 인공지능(AI), 빅데이터 처리, 자동화 등 ‘우선순위’에 있는 기술을 개발하는 초기 단계 스타트업과 벤처캐피털 펀드에 투자할 10억 달러 규모의 혁신 펀드를 조성한다고 발표했다.

러시아-우크라이나 전쟁이 발발한 이후로 영국은 국방을 위해 새로운 AI 전략을 개시했고 독일은 군에 투입하는 1,000억 달러의 자금에서 연구와 AI를 위해 5억 달러에 조금 미치지 못하는 예산을 배정했다.

『나, 전쟁봇: 인공지능 갈등의 도래(I, Warbot: The Dawn of Artificially Intelligent Conflict)』의 저자이자 킹스칼리지런던에서 국방 연구를 이끌고 있는 케네스 페인(Kenneth Payne)은 전쟁을 “변화의 기폭제”라고 묘사했다.

실제로 러시아-우크라이나 전쟁이 발발하면서 더 많은 AI 도구를 전쟁터에 도입하고자 하는 움직임이 더욱 활발해졌다. 그 덕에 가장 많은 이익을 얻게 된 것은 팔란티어 같은 스타트업들이다. 이들은 군대들이 최신 기술을 활용해 무기를 업그레이드하려고 경쟁하는 상황에서 자신들이 이익을 얻게 되기를 바라고 있다. 그러나 다른 한편에서는 전쟁에 AI를 사용하는 것에 대해 오랫동안 존재해 온 윤리적인 우려가 점점 커지고 있다. 이는 특히 AI 기술이 계속 발전하는데도 AI 사용을 통제하는 규제나 제한이 여전히 부족해 보이는 상황이기 때문이다.

과거에는 기술과 군대의 관계가 항상 그렇게 우호적이지는 않았다. 2018년 직원들의 항의와 분노가 터져 나온 후에 구글은 미 국방부가 드론 공격을 개선하기 위해 이미지 인식 시스템을 구축하려고 추진했던 ‘메이븐(Maven)’ 프로젝트에서 손을 뗐다. 이 사건으로 자율 무기에 사용할 AI 개발을 둘러싸고 인권과 도덕성에 관한 열띤 논쟁이 벌어졌다.

또한 이 사건으로 튜링상(Turing Prize) 수상자 요슈아 벤지오(Yoshua Bengio)와 AI 연구소 딥마인드(DeepMind)의 공동설립자 데미스 허사비스(Demis Hassabis), 셰인 레그(Shane Legg), 무스타파 술레이만(Mustafa Suleyman)이 사람을 해칠 수 있는 치명적인 AI를 연구하지 않겠다고 약속했다.

그러나 그로부터 4년이 지난 현재 실리콘밸리는 그 어느 때보다 전 세계 군대들과 가까워졌다. 큰 기업만 그런 것이 아니다. 일 바이락타리(Yll Bajraktari)는 스타트업들도 마침내 기회를 얻고 있다고 말했다. 바이락타리는 미국 인공지능국가안보위원회(National Security Commission on AI, NSCAI)의 전 상임이사였으며 지금은 미국 전역에서 더 많은 AI 도입이 이루어지도록 영향력을 행사하는 단체인 특별경쟁연구프로젝트(Special Competitive Studies Project)에서 일하고 있다.

왜 AI인가?

군용 AI를 판매하는 회사는 자사의 기술력을 광범위하게 설명하는 주장을 펼친다. 그들은 AI가 지루하고 일상적인 일부터 치명적인 일까지, 즉 이력서 서류 심사부터 전장에서 군인들이 더 빠른 결정을 내릴 수 있게 도움을 줄 인공위성 데이터 처리나 데이터 패턴 인식까지 모든 일에 도움을 줄 수 있다고 주장한다. 이미지 인식 소프트웨어는 공격 대상을 식별하는 데 도움을 줄 수 있다. 자율주행 드론은 육지, 공중, 또는 수상에서 감시용 또는 공격용으로 사용할 수도 있고 군인들이 육로로 갈 때보다 더 안전하게 보급품을 전달할 수 있게 도움을 줄 수도 있다.

페인은 이러한 기술이 실제 전쟁터에서는 아직 초기 단계에 머무르고 있으며 군대들은 실험의 시기를 거치고 있고 실험에서 큰 성공을 거두지 못하는 때도 많다고 설명했다. AI 회사들이 기술에 관해 대단한 약속을 했지만 알고 보니 기술이 광고했던 대로 작동하지 않았던 사례는 셀 수 없이 많다. 그러나 ‘전쟁터’는 아마도 AI를 배치하기에 기술적으로 가장 어려운 공간일 것이다. 그와 관련한 학습 데이터가 거의 존재하지 않기 때문이다. 드론 및 다른 감시 기술 전문가 아서 홀랜드 미셸(Arthur Holland Michel)은 유엔 군축연구소(United Nations Institute for Disarmament Research) 논문에서 “학습 데이터가 거의 부재하기 때문에 자율 시스템이 복잡하고 예측할 수 없는 방식으로 고장 날 수 있다”고 주장했다.

그렇다고 하더라도 많은 군대들은 AI 도입을 추진하고 있다. 2021년 영국군은 모호하게 표현된 보도자료에서 주변 환경과 지형에 관한 정보를 제공하기 위해 군사작전에서 처음으로 AI 기술을 사용했다고 자랑스럽게 발표했다. 미국은 자율주행 군용차 개발을 위해 여러 스타트업과 협력하고 있다. 미래에는 미군영국군이 개발하고 있는 수백, 심지어 수천 대의 자율주행 드론 떼가 매우 강력하고 치명적인 무기가 될 수도 있다.

많은 전문가들은 이런 상황을 우려하고 있다. 연방거래위원회(Federal Trade Commission)의 AI 선임 고문이자 AI나우연구소(AI Now Institute)의 책임자 메러디스 휘터커(Meredith Whittaker)는 AI 기술을 도입하려는 군대들의 움직임이 군사력을 개선하기보다는 기술기업들의 배를 불리는 행보일 뿐이라고 말했다.

랭커스터대학교의 사회학 교수 루시 서치먼(Lucy Suchman)과 공동 집필하여 프로스펙트(Prospect) 잡지에 기고한 에서 휘터커는 “AI 기술이 냉전 시대의 군비 경쟁 같은 상황을 부추기고 기술 대기업을 ‘해체하거나 규제하기에는 너무 크고 중요한 필수적인 국가 인프라’처럼 느껴지게 만들려고 한다”고 주장했다. 두 저자는 군대의 AI 도입이 마치 ‘필연적인 일’인 것처럼 제시되고 있다고 경고했다. 그들에 따르면 군대의 AI 도입은 윤리적인 복잡함과 타협을 수반하는 능동적인 선택의 문제다.

AI에 투입되는 투자금들

메이븐 프로젝트를 둘러싼 논란이 사람들의 기억에서 희미해지면서 국방에 AI를 더 많이 사용해야 한다고 요구하는 목소리가 지난 몇 년 동안 점점 더 커지고 있다.

그러한 큰 목소리를 내는 이들 중에는 구글의 전 CEO 에릭 슈미트(Eric Schmidt)도 있다. 그는 NSCAI의 의장직을 맡아 “군용 AI 채택에 더 적극적으로 접근”하라고 미국에 요구해왔다.

NSCAI는 지난해 보고서에서 미국이 2025년까지 AI 도입 속도를 높이기 위해 취해야 할 단계를 개괄적으로 설명하며 미군이 AI 기술에 매년 80억 달러를 투자하지 않으면 중국에 뒤처질 것이라고 주장했다.

조지타운 보안 및 신기술 센터(Georgetown Center for Security and Emerging Technologies)의 보고서에 따르면 중국 군대는 AI에 매년 16억 달러를 투자하고 있는 것으로 보인다. 그러나 미국 외교협의회(Council on Foreign Relations) 소속 연구원 로런 칸(Lauren Kahn)은 미국에서도 이미 중국과 동등한 수준에 도달하기 위해 상당한 투자를 진행하고 있다고 말했다. 미 국방부는 2022년 AI에 투자하기 위해 8억 7,400만 달러를 요청했지만 국방부가 2022년 3월 발표한 보고서에서 밝힌 바에 따르면 이 금액은 국방부의 AI 투자 총액을 반영하지 않는다.

AI 연구의 필요성을 절감하고 있는 곳은 미군뿐만이 아니다. 독일 함부르크 헬무트슈미트대학교의 국방AI관측소(Defense AI Observatory) 공동소장 하이코 보르헤르트(Heiko Borchert)는 신기술 채택에 더 신중한 경향이 있는 유럽 국가들도 AI에 이전보다 더 많은 돈을 투자하고 있다고 밝혔다.

프랑스와 영국도 AI를 핵심 국방 기술로 인식하고 있으며 유럽연합(EU) 집행위원회(European Commission)는 새로운 국방 기술 개발에 10억 달러를 배정했다.

계약의 어려움

인공지능에 대한 수요를 창출하는 것과 군대가 AI를 도입하게 하는 것은 완전히 별개의 문제이다.

AI 감시 기술을 판매하는 프랑스 스타트업 프레리장(Preligens)의 CEO 아르노 게랭(Arnaud Guérin)은 많은 국가가 군용 AI 도입을 추진하고 있지만 군대에서 실제로 AI를 사용하도록 배치하는 데 어려움을 겪고 있다고 밝혔다. 그는 이에 대한 부분적인 원인으로 대형 방위산업체들을 언급했다. 대부분의 국가에서 방위산업은 여전히 대형 방위산업체가 지배하고 있는데 그들이 주로 AI 소프트웨어보다는 군사 하드웨어에 더 많은 전문지식을 가지고 있기 때문이라는 것이다.

또 다른 이유는 군대의 검증 과정이 우리가 AI 개발과 관련해서 익숙하게 보아오던 놀라운 속도와 비교해서 매우 느리게 진행된다는 것이다. 방산 계약은 수십 년에 걸쳐 천천히 이루어질 수 있지만, 스타트업들은 그렇게 긴 시간을 기다릴 여유가 없다.

스타트업과 벤처 투자자들은 방산 계약과 관련한 과정이 너무 느리게 진행되는 것에 대해 좌절감을 표현했다. 벤처캐피털 기업 앤드리슨 호로위츠(Andreessen Horowitz)의 캐서린 보일(Katherine Boyle)은 과정이 너무 느리다 보니 재능 있는 엔지니어들이 좌절감을 느끼며 페이스북이나 구글로 이직하고 스타트업들은 계약을 기다리다가 파산할 위험성까지 있다고 주장했다.

영국군과 협력하고 있는 데이터 분석 업체 패컬티AI(FacultyAI)의 설립자 마크 워너(Mark Warner)는 “방위산업에서는 보안이 중요하기 때문에 계약 과정이 더디게 진행될 수 있다”며, “하지만 그것만으로는 설명할 수 없는 상황도 있다”고 말했다.

조지타운 보안 및 신기술센터에서 AI 투자 동향을 연구해온 연구 분석가 응고르 루옹(Ngor Luong)은 군사적 야심을 가진 AI 기업들이 “오랫동안 사업을 지속해야 한다”고 말했다.

칸은 군대들이 곤경에 빠져 있다고 밝혔다. 너무 빠르게 움직여서 위험한데다가 망가진 시스템을 배치할 위험을 감수하거나 너무 느리게 움직여서 기술 발전을 놓치는 상황을 감수해야 하기 때문이다. 한편 미국은 더 빠르게 움직이고 싶어 하지만, 미 국방부는 차량호출 기업 리프트(Lyft)의 전 AI 책임자 크레이그 마텔(Craig Martell)에게 도움을 요청했다.

2022년 6월 마텔은 미 국방부의 새로운 최고 디지털 인공지능국(Chief Digital Artificial Intelligence Office)의 책임자가 되었다. 이 산하기관의 목표는 미군의 AI 도입 추진을 조정하는 것이다. 그는 블룸버그(Bloomberg)와의 인터뷰에서 자신의 임무가 조직의 문화를 바꾸고 ‘관료적 타성’을 벗어나 군대의 AI 사용을 활성화시키는 것이라고 밝혔다.

그는 수월한 일을 추진하고 있는지도 모른다. AI 기업들이 이미 수익성 좋은 군사 계약을 따내기 시작했기 때문이다. 2월에 첨단 수중 드론 등 자율방어시스템을 개발하는 5년 차 스타트업 앤듀릴(Anduril)이 미국과 10억 달러 규모의 방위 계약을 따냈다. 1월에는 AI를 위한 데이터 라벨링 서비스를 제공하는 스타트업 스케일AI(ScaleAI)가 미 국방부와 2억 5,000만 달러 규모의 계약을 체결했다.

과대광고를 조심하라

AI가 서서히 방위산업에 진출하고 있지만 메이븐 프로젝트에 대한 시위를 촉발했던 윤리적인 우려는 아직 사라지지 않았다.

물론 그런 우려를 달래기 위한 노력도 있다. 신뢰 문제가 있음을 인지한 미 국방부는 AI 개발자를 위한 ‘책임감 있는 인공지능’ 지침을 내놓았고 AI 사용에 관한 자체적인 윤리 지침도 마련했다. NATO는 회원국을 위해 자발적인 윤리 지침을 제시하는 AI 전략을 가지고 있다.

이 모든 지침은 군대에 합법적이고 책임감 있고 신뢰할 수 있으며 추적할 수 있는 방식으로 AI를 사용하고 알고리즘에 내재된 편향을 완화하도록 요구한다.

지침에서 가장 중요한 핵심 개념 중 하나는 언제나 사람이 AI 시스템에 대한 통제력을 유지해야 한다는 것이다. 그러나 페인은 기술이 발전하면서 그런 일이 실제로 가능하지 않을 것이라고 전망했다.

페인은 “자율 시스템의 핵심은 인간이 할 수 있는 것보다 훨씬 더 빠르고 정확하게, 그리고 인간이 할 수 없는 규모로 시스템이 결정을 내릴 수 있게 하는 것”이라며, “결정을 내릴 때마다 모든 상황에서 변호사를 찾으려고 하는 것은 사실상 스스로를 방해하고 있는 것”이라고 말했다.

그럼에도 불구하고 이를 비판하는 사람들은 더 강력한 규칙이 필요하다고 입을 모은다. 그중에는 드론 떼와 같이 치명적인 자율 무기를 금지하고자 하는 ‘스탑 킬러 로봇(Stop Killer Robots)’이라는 세계적인 캠페인도 있다. 활동가, UN 사무총장 안토니오 구테흐스(António Guterres) 같은 유명 관료, 뉴질랜드 정부를 비롯한 각국의 정부들은 자율 무기 사용이 기계에 인간의 생사 결정권을 넘기는 행위일 뿐만 아니라 알고리즘의 편향으로 인해 소외된 지역사회에 불균형한 해를 끼칠 위험이 있으므로 매우 비윤리적이라고 주장한다.

예를 들어 수천 개의 자율주행 드론 떼는 본질적으로 대량 살상 무기가 될 수 있다. 이러한 기술을 제한하는 것은 매우 힘든 싸움이 될 것이다. 전 세계적으로 이런 무기를 금지하자는 생각이 미국, 프랑스, 영국 같은 대규모 군사비 지출국의 반대에 직면했기 때문이다.

궁극적으로 ‘군용 AI’라는 새로운 시대는 우리가 아직 답을 가지고 있지 않은 수많은 어려운 윤리적 문제들을 제기한다.

페인은 그러한 문제 중 하나가 “애초에 우리가 군대를 얼마나 자동화하기를 바라는가?”라고 말했다. 그는 한편으로는 AI 시스템이 전쟁을 더 표적에만 집중할 수 있게 만들어서 사상자를 줄이는 데 도움이 될 수도 있지만, 다른 한편으로는 “우리가 우리를 대신해서 싸워줄 효과적인 로봇 용병대를 만들고 있는 것”이라면서 “그렇게 해서 우리 사회를 폭력의 결과물로부터 멀리 떼어 놓는 것”이라고 말했다. (By Melissa Heikkiläarchive)

미리보기 3회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.