fbpx
The new war room

새로운 작전실

군 당국은 이미 인간이 놓칠 수 있는 부분을 포착하기 위해 AI를 활용하고 있다. 이제 그들은 지휘관들이 전투 중에 참고할 수 있는 조언형 시스템도 원하고 있다.
📋한눈에 보는 AI 요약AI 자동 요약▶ 펼쳐보기

군대에서 AI 챗봇을 활용해 전쟁 관련 조언을 받는 시대가 열리고 있습니다. 예전에는 AI가 감시 영상에서 적 차량을 찾아내는 정도의 단순 분석만 했지만, 이제는 지휘관이 챗봇과 대화하며 어떤 목표를 먼저 공격할지 추천을 받을 수 있게 되었습니다. 미국뿐 아니라 중국 등 여러 나라가 이런 시스템을 도입하고 있으며, 오픈AI 같은 AI 기업들도 군사 계약에 적극 참여하고 있습니다. 하지만 AI가 틀린 답을 내놓을 수 있고, 급박한 전투 상황에서 사람이 이를 제대로 확인하지 못할 위험이 있습니다. 또한 기밀 군사 데이터로 AI를 학습시키면 새로운 보안 문제가 생길 수 있다는 우려도 나옵니다.

왜 중요한가요?

AI가 사람의 생사를 결정하는 군사 판단에 직접 관여하기 시작했기 때문에, 이 기술이 얼마나 정확하고 안전한지, 그리고 누가 이를 감시하는지는 모든 사람의 안전과 직결되는 문제입니다.

주요 용어 설명
메이븐 (Maven)

미군이 사용하는 AI 분석 시스템으로, 위성 사진이나 감시 영상에서 적의 장비나 위협 요소를 자동으로 찾아내는 도구입니다. 마치 수천 장의 사진 속에서 특정 물건을 자동으로 골라내는 검색 엔진 같은 역할을 합니다.

책임 있는 AI (Responsible AI)

AI를 사용할 때 공정성, 투명성, 안전성을 지키자는 원칙입니다. 예를 들어 AI가 왜 그런 판단을 내렸는지 사람이 확인할 수 있어야 하고, 잘못된 결정에 대해 책임을 물을 수 있어야 한다는 개념입니다. 하지만 군에서는 이를 비현실적인 이상이라고 보는 시각도 있습니다.

공급망 위험 요소 (Supply Chain Risk)

군이 사용하는 기술이나 부품을 제공하는 회사가 보안상 위험할 수 있다는 의미입니다. 마치 식당에서 쓰는 식재료 납품업체가 위생 문제를 일으킬 수 있는 것처럼, AI 기업의 기술이 군 시스템 깊숙이 들어가면 해당 기업에 문제가 생길 때 군 전체가 영향을 받을 수 있습니다.

⚡ Claude AI가 독자를 위해 자동 생성한 요약입니다. 원문을 함께 읽어보세요.

이란에서 벌어지고 있는 분쟁을 최초의 ‘AI 전쟁’이라고 부르는 것은 여러 측면에서 정확하지 않다. 수 시간 분량의 감시 영상을 분석해 기관총이 장착된 트럭과 같은 표적을 식별하는 알고리즘은 이미 아프가니스탄 전쟁 시기부터 사용돼 왔다. 우크라이나는 AI를 활용해 자율적으로 항로를 찾는 드론을 개발했고, 이스라엘 역시 정보 데이터를 기반으로 잠재적 표적을 식별하는 데 AI 시스템을 활용해 왔다.

이란을 비롯한 여러 지역에서 새롭게 등장한 것은, 지휘관들이 단순한 분석을 넘어 ‘조언’을 얻기 위해 사용하는 대화형 AI 시스템이다. 기존 AI 기술과 달리 이러한 조언형 시스템은 대형언어모델(LLM)을 기반으로 한다. 그리고 이들은 이미 군이 정보를 공유하고, 빅테크 기업과 협력하며, 생사를 가르는 결정을 내리는 방식을 바꾸고 있다.

10년 전만 해도 AI 도구는 하급 정보 분석관의 업무를 자동화하는 수준에 머물렀다. 소셜미디어나 위성 영상에서 방대한 잡음 속 의미 있는 신호를 가려내는 작업이 대표적이다. 감시 기술 기업 팔란티어의 기술을 기반으로 구축된 미군의 ‘메이븐(Maven)’과 같은 시스템은 이러한 분석 결과를 지휘관에게 제공했다. 이를 통해 지휘관은 전쟁 장비라기보다 비즈니스 소프트웨어에 가까운 깔끔한 인터페이스를 이용해 지구 반대편의 공격 목표를 선택할 수 있었다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!