Can Computer Algorithms Learn about the Ethics of Warfare?

컴퓨터 알고리듬은 윤리적 전투방법을 배울 수 있을까?

AI는 미래 전쟁의 승패를 좌우할 전망이다. 그런데 자동화된 킬러 로봇은 전투 현장에서 국제 인도법(IHL)을 위반하지 않는 선택을 내릴 수 있을까? 유엔군축실(UNODA)은 군사용 킬러 로봇에 대한 ‘의미 있는 인간 통제(Meaningful Human Control)’를 논의하고 있지만 국제 조약은 아직 통과되지 않고 있다. 안보와 밀접한 무기 체계의 통제를 꺼리는 나라들 때문이다. 최근 미국 펜타곤은 외주 업체들에게 ‘책임있는AI를 위한 윤리적 가이드라인’을 준수할 것을 발표했다.

방 분야에 사용되는 AI

인공지능(AI)의 적용 영역이 넓어지고 있지만 AI가 인간의 일자리를 빼앗거나 블랙박스처럼 불투명한 알고리듬이 사회적 약자를 차별할 것이라는 우려도 여전하다. AI 기반 자동화 무기에 대한 우려는 인간의 통제를 완전히 벗어나 대규모 살상을 초래할 수 있다는 가능성에 초점이 맞추어져 있다.

그러나 국방 분야에 사용되는 모든 AI가 생명을 위협하는 자동화된 무기 시스템을 의미하지는 않는다. 군사용 AI의 분야들은 다양하고 넓다. 방대한 데이터를 수집하고 분석하는 감시정찰(ISR), 군수보급(logistics), 정보작전(information operations), 지휘통제(command and control), 치명적 자율무기 시스템(LAWS) 등이다. 실무적으로 활용도가 높은 분야로는 컴퓨터 비전과 머신러닝 알고리듬을 이용한 위성 사진 이미지 분석, 사이버 방어, 감시 정찰 등이 꼽힌다.

구글은 코로나19 팬데믹 대응에 도움이 되는 클라우드 소프트웨어와 AI 도구를 제공하기로 미국 펜타곤과 지난해에 계약을 맺었다. 효율적 자원 배분을 돕는 AI 도구와 자원 최적화 솔루션이 대부분이다. 예컨대 무인 항공기가 찍은 이미지를 머신러닝으로 분석하여 해군 선박들의 부식을 감지하고, 공군 제트기들을 관리한다. AI시스템이 전투나 공격 작전이 아닌 장비 관리, 정확한 정찰, 자원 배분, 정보용으로 사용되는 사례들은 앞으로 더 늘어날  것이다.    

치명적 자율무기 시스템

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!