These new tools could help protect our pictures from AI

날로 심각해지는 딥페이크 포르노로부터 나를 지켜주는 도구들

AI가 누군가의 사진을 조작하거나 특정 예술가의 스타일을 흉내 내지 못하도록 막는 도구들이 새롭게 개발됐다. 이런 AI 도구들은 딥페이크와 저작권 침해로부터 우리를 보호해 줄 수 있을까?

올해 초 생성형 AI(generative AI)로 누군가의 이미지를 조작하는 일이 얼마나 쉬워졌는지 알게 된 필자는 소셜 미디어 계정의 개인정보 보호 설정을 강화하고 페이스북과 트위터 프로필을 일러스트 이미지로 교체했다.

이를 알게 된 것은 스테이블 디퓨전(Stable Diffusion) 기반의 이미지 편집 소프트웨어와 다양한 딥페이크(deepfake) 앱을 사용해 본 후부터였다. 내 얼굴이 나온 사진을 트위터에서 가져와 몇 번의 클릭과 프롬프트 입력을 거치자 딥페이크 포르노 영상을 생성하고 사진 속 의상도 편집할 수 있었다. 여기자로 일하며 온라인상에서의 폭력을 충분히 경험한 이후 사람들이 새로운 AI 도구를 마음대로 사용할 수 있게 되면 온라인 폭력이 얼마나 더 심해질지 확인하고자 했다.

합의되지 않은 딥페이크 포르노는 수년 동안 여성들에게 고통을 안겨 왔고, 이 문제는 최신 AI로 인해 더욱 심각해지고 있다. 최근 세대의 AI 모델로 만든 도구들은 기존 딥페이크 기술보다 훨씬 쉽게 사용할 수 있으며, 정말로 그럴듯해 보이는 이미지를 생성할 수 있다.

이미지 대 이미지(Image-to-image) AI 시스템은 생성형 AI를 사용해 기존 이미지를 다른 이미지로 변환하는 기술이다. 시카고 대학교(University of Chicago)의 컴퓨터 과학 교수인 벤 자오(Ben Zhao)는 “기존의 고해상 이미지 한 장으로 만들기 때문에 수준이 매우 높다”면서 “생성된 결과물은 입력한 이미지와 동일한 품질, 동일한 해상도, 동일한 디테일 표현력을 갖게 된다. [AI 시스템은] 단순히 이미지 속 요소들을 이동시키는 경우가 많기 때문이다”라고 말했다.

AI의 조작으로부터 이미지를 보호할 수 있는 새로운 도구를 알게 되었을 때 필자가 얼마나 안도했는지 상상할 수 있을 것이다. MIT 연구진이 개발한 포토가드(PhotoGuard)는 사진에 보호막을 씌우는 방식으로 작동한다. 이 도구는 사람이 알아차릴 수 없는 방식으로 사진을 미묘하게 변경하여 AI 시스템이 사진을 조작하지 못하게 막아준다. 누군가가 포토가드로 ‘면역이 생긴’ 이미지를 스테이블 디퓨전과 같은 생성형 AI 모델 기반 앱을 사용해 편집하려고 하면 비현실적이거나 뒤틀린 것 같은 결과가 나타날 수 있다. 

또 다른 도구인 글레이즈(Glaze)도 이와 유사한 방식으로 작동한다. 글레이즈는 개인의 사진 보호보다는 AI 모델의 학습 데이터 세트가 저작권이 있는 예술가의 작품과 예술적 스타일을 수집하지 못하도록 방지하는 데 도움을 준다. 일부 예술가들은 스테이블 디퓨전이나 DALL-E 2 같은 이미지 생성 AI 모델이 등장한 이후 기술 기업이 어떤 보상이나 자신들의 지적 재산을 수집해 보상이나 지급 없이 AI 모델을 훈련하는 데 사용한다고 주장하며 반발해 왔다.

자오와 시카고 대학교 연구팀이 개발한 글레이즈는 이러한 문제를 해결하는 데 도움이 된다. 글래이즈는 이미지를 ‘덮어씌우는(cloak)’ 방식을 사용한다. 이는 사람은 거의 알아챌 수 없는 미묘한 변경을 통해 AI 모델이 특정 예술가의 스타일적 특징을 학습하는 것을 방지한다. 

자오는 글레이즈가 AI 모델의 이미지 생성 프로세스를 훼손하여  AI 모델이 특정 예술가의 작품처럼 보이는 이미지를 무한정 뱉어내는 것을 방지한다고 말한다. 

포토가드는 스테이블 디퓨전 기반의 데모를 온라인에 공개했으며, 글레이즈 또한 곧 예술가들이 사용할 수 있게 될 것이다. 현재 자오와 그의 팀은 글레이즈의 베타 테스트에 들어갔고 금주 말쯤 제한된 인원의 예술가들만 회원가입 후 사용할 수 있게 할 예정이다. 

하지만 이러한 AI 도구는 그 자체로는 완벽하지도 충분하지도 않다. 예를 들어, 포토가드로 보호된 이미지들도 스크린 캡처본을 AI 시스템에 넣는 식으로 변환할 수 있다. 이러한 도구들은 AI 이미지 편집 문제가 기술적으로 해결될 수 있음을 증명하지만, 기술 회사들이 이러한 도구를 더 널리 채택하지 않는 한 그 자체로는 쓸모가 없다. 현재 온라인상에 떠도는 우리의 사진은 AI를 이용해 이미지를 악용하거나 조작하려는 이들에게 열려 있다. 

악의적인 사용자에 의해 우리 이미지가 조작되는 것을 방지하는 가장 효과적인 방법은 소셜 미디어 플랫폼과 AI 기업이 향후 업데이트되는 모든 AI 모델에 ‘이미지 면역 기능’을 제공하는 것이다. 

미국의 주요 AI 기업들은 AI 생성 콘텐츠를 탐지할 방법을 ‘개발’하겠다고 정부에 자발적으로 서약했지만, 이를 적용하겠다고 약속한 것은 아니다. 생성형 AI의 피해로부터 사용자를 보호하려는 의지가 이들에게 있다면, 가장 중대한 첫 단계는 AI 생성 콘텐츠를 탐지할 방법을 적용하는 일일 것이다.  

  • 본 기사는 지난 8월 16일자 기사를 재송한 것입니다.