This new data poisoning tool lets artists fight back against generative AI

이미지 생성 AI에 맞서는 예술가들 위한 도구 등장

‘나이트셰이드’는 학습 데이터를 오염시켜 명령어에 적합하지 않은 결과물을 출력하게 만들어 이미지 생성 AI 모델에 심각한 손상을 유발할 수 있다.

예술가들이 자신의 작품을 온라인에 올릴 때 픽셀을 육안으로 구분할 수 없을 정도로 미묘하게 변형시키는 도구가 등장했다. 만약 이 작품이 AI 모델의 학습 데이터로 수집될 경우 그 자료로 학습한 모델은 혼란스럽고 예측할 수 없는 결과물을 생성하게 된다. 

이 도구의 이름은 ‘나이트셰이드(Nightshade)’로 예술가의 작품을 동의 없이 AI 모델의 학습에 이용하는 AI 회사들에 맞서기 위해 만들어졌다. 나이트셰이드는 학습 데이터를 오염시켜 이미지 생성 AI 모델의 일부 결과물을 쓸모없게 만든다. 예를 들어, ‘개’를 입력했는데 ‘고양이’가 나오고 ‘자동차’를 입력했는데 ‘소’가 나오는 식이다. 나이트셰이드는 DALL-E, 미드저니(Midjourney), 스테이블 디퓨전(Stable Diffusion) 등 이미지 생성 AI 모델의 차세대 버전에 손상을 입힐 수 있다. MIT 테크놀로지 리뷰는 컴퓨터 보안 컨퍼런스인 유즈닉스(Usenix)에서 동료평가를 위해 제출된 이 연구를 확인할 독점적인 기회를 얻었다. 

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!