fbpx
OpenAI’s “compromise” with the Pentagon is what Anthropic feared

오픈AI와 국방부의 ‘위험한 타협’… 앤트로픽의 우려가 현실로

오픈AI는 미 국방부와의 계약으로 군사 AI 시장에 진입했지만, 안전장치를 법 준수에만 의존한다는 점에서 논란을 낳고 있다. 앤트로픽이 지켜온 ‘레드라인’이 무너질 수 있다는 우려 속에 AI 기업의 윤리적 책임과 국가 안보의 경계가 다시 시험대에 올랐다.
📋한눈에 보는 AI 요약▶ 펼쳐보기

오픈AI가 미국 국방부와 계약을 맺어 군대가 비밀 작전에서 자사 AI 기술을 쓸 수 있게 했습니다. 경쟁사 앤트로픽은 자사 AI가 자율 무기나 대규모 감시에 쓰이는 것을 막으려 했지만, 국방부와 갈등을 빚고 결국 계약에서 밀려났습니다. 오픈AI는 자율 무기와 감시를 금지하는 조항을 넣었다고 하지만, 실제로는 ‘정부가 법을 지킬 것’이라는 전제에 의존하고 있어 안전장치가 충분한지 의문이 제기됩니다. 국방장관은 앤트로픽을 강하게 비판하며 군 관련 업체들이 앤트로픽과 거래하지 못하도록 하겠다고 위협했고, 앤트로픽은 소송을 예고했습니다. 결국 AI 기업들이 군사적 활용에서 어디까지 도덕적 기준을 지킬 수 있을지가 핵심 쟁점이 되고 있습니다.

왜 중요한가요?

AI가 군사 작전에 본격적으로 쓰이기 시작하면서, 기술 기업이 정부의 요구와 윤리적 책임 사이에서 어떤 선택을 하느냐가 우리 모두의 안전과 인권에 직접적인 영향을 미치게 됩니다.

주요 용어 설명
자율 무기 (Autonomous Weapons)

사람의 판단 없이 AI가 스스로 목표를 정하고 공격할 수 있는 무기를 말합니다. 예를 들어 드론이 사람의 명령 없이 알아서 적을 찾아 공격하는 것과 같습니다. 이런 무기는 오작동이나 오판 시 민간인 피해가 커질 수 있어 큰 논란이 됩니다.

레드라인 (Red Line)

절대 넘어서는 안 되는 기준선을 뜻합니다. 예를 들어 ‘우리 AI를 사람을 죽이는 데 쓰면 안 된다’처럼 기업이 스스로 정한 도덕적 한계선입니다. 앤트로픽은 이 레드라인을 고수하려 했고, 국방부는 이를 받아들이지 않았습니다.

기밀 환경 (Classified Environment)

일반인이 접근할 수 없는 군사 비밀 전산망이나 시설을 말합니다. 마치 특별한 열쇠가 있어야만 들어갈 수 있는 비밀 방처럼, 허가받은 군 관계자만 사용할 수 있는 폐쇄적인 컴퓨터 시스템에서 AI가 작동하는 것입니다.

대량 감시 (Mass Surveillance)

정부가 특정 용의자가 아닌 일반 시민 전체의 통화, 인터넷 사용, 위치 정보 등을 광범위하게 수집하고 감시하는 행위입니다. 2013년 스노든이 폭로한 미국 정부의 전화 도청 프로그램이 대표적인 사례로, AI가 결합되면 감시 능력이 훨씬 강력해질 수 있습니다.

정부 조달법 (Government Procurement Law)

정부가 민간 기업에서 물건이나 서비스를 구매할 때 따라야 하는 법적 규칙입니다. 학교에서 급식 업체를 선정할 때 공정한 절차를 거쳐야 하는 것처럼, 국방부가 AI 기업과 계약할 때도 특정 법적 절차와 조건을 준수해야 합니다.

⚡ Claude AI가 독자를 위해 자동 생성한 요약입니다. 원문을 함께 읽어보세요.

오픈AI는 2월 28일(현지시간) 미군이 기밀 환경에서 자사 기술을 사용할 수 있게 하는 계약을 체결했다고 발표했다. 경쟁사인 앤트로픽이 국방부와 AI의 군사적 활용을 놓고 갈등을 빚은 뒤 체결된 이번 계약에 대해 샘 올트먼 오픈AI CEO는 “분명 서둘러 계약을 진행했다”고 인정했다.

오픈AI는 발표문에서 국방부가 자사 기술을 자의적으로 사용하도록 허용하지 않았다는 사실을 강조하는 데 집중했다. 오픈AI는 자율 무기 및 대규모 국내 감시 목적으로 자사 기술의 사용을 막는 조항이 계약에 포함됐다고 설명하는 블로그 게시물을 공개했다. 올트먼 CEO는 앤트로픽이 거부한 조건을 그대로 수용한 것이 아니라고도 강조했다.

표면적으로는 오픈AI가 계약과 도덕적 명분을 모두 얻은 것처럼 보일 수 있다. 그러나 행간과 법률 용어를 자세히 들여다보면 다른 사실이 드러난다. 앤트로픽은 많은 지지를 얻은 도덕적 접근을 택했지만 결국 국방부와의 계약에 실패했다. 반면 오픈AI는 국방부에 더 실용적이고 법적으로 유연한 접근법을 택했다.

이란 공격 과정에서 군이 정치화된 AI 전략을 서둘러 추진하는 가운데 오픈AI가 약속한 안전장치를 실제로 구축할 수 있을지, 아니면 회사가 국방부에 더 강경한 입장을 취하길 원했던 직원들이 이 계약을 충분히 만족스럽게 받아들일지는 아직 불분명하다. 양쪽 입장을 모두 고려하며 대응하기는 쉽지 않을 것이다. (오픈AI는 계약에 대한 추가 정보 요청에 즉각적인 답변을 내놓지 않았다.)

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!