Can Computer Algorithms Learn about the Ethics of Warfare? AI는 미래 전쟁의 승패를 좌우할 전망이다. 그런데 자동화된 킬러 로봇은 전투 현장에서 국제 인도법(IHL)을 위반하지 않는 선택을 내릴 수 있을까? 유엔군축실(UNODA)은 군사용 킬러 로봇에 대한 ‘의미 있는 인간 통제(Meaningful Human Control)’를 논의하고 있지만 국제 조약은 아직 통과되지 않고 있다. 안보와 밀접한 무기 체계의 통제를 꺼리는 나라들 때문이다. 최근 미국 펜타곤은 외주 업체들에게 ‘책임있는AI를 위한 윤리적 가이드라인’을 준수할 것을 발표했다.