STEPHANIE ARNETT/MIT TECHNOLOGY REVIEW | MELISSA HYDRICK/AIR FORCE
Why having “humans in the loop” in an AI war is an illusion
[OPINION] 속을 알 수 없는 AI…전장서 드러난 ‘인간 통제’의 한계
AI가 전장에서 실시간 의사결정을 수행하는 ‘행위자’로 부상하면서, 인간이 이를 통제할 수 있다는 전제가 흔들리고 있다. 전문가들은 AI의 성능보다 ‘의도’를 이해하는 기술이 확보되지 않는 한 인간의 감독은 착시에 불과할 수 있다고 경고한다.
인공지능(AI)의 전쟁 활용을 둘러싼 논쟁이 앤트로픽과 미 국방부 간 법적 분쟁으로까지 확산되고 있다. 최근 이란과의 충돌을 계기로 AI의 역할이 급격히 커지면서 상황은 더욱 긴박해졌다. 이제 AI는 단순한 정보 분석 ‘보조 도구’를 넘어 실시간으로 타격 목표를 생성하고, 미사일 요격을 조정하며, 자율 드론 공격을 지휘하는 ‘행위자’로 빠르게 자리 잡고 있다.
그동안 AI 기반 자율 살상 무기를 둘러싼 논의는 인간이 어느 수준까지 ‘개입해야 하는가’에 집중돼 왔다. 미 국방부 지침 역시 인간의 감독이 책임성과 맥락 판단을 보완하고 해킹 위험을 줄일 수 있다는 전제 위에 설계돼 있다.
속을 알 수 없는 ‘블랙박스’’
그러나 ‘인간이 개입한다’고 해서 안심해서는 안 된다. 위험은 기계가 인간의 통제를 벗어나는 데 있는 것이 아니라, 인간이 기계가 실제로 무엇을 ‘생각하고 있는지’ 알지 못한다는 데 있다. 국방부 지침은 인간이 AI의 작동 원리를 이해하고 있다는 위험한 가정 위에 서 있으며, 바로 이 지점에서 근본적인 한계를 드러낸다.
수십 년간 인간의 의도를 연구해 온 필자의 관점에서 보면 최신 AI 시스템은 사실상 ‘블랙박스’나 마찬가지다. 입력과 출력은 확인할 수 있지만 그 사이에서 어떤 판단과 연산이 이뤄지는지는 여전히 불투명하다. 심지어 이를 설계한 개발자들조차 내부 작동을 완전히 해석하지 못한다. AI가 스스로 이유를 제시하더라도 그 설명이 언제나 신뢰할 수 있는 것은 아니다.