워터마크의 한계, AI 생성 콘텐츠 표시 방법으로 충분치 않은 이유

AI 생성 콘텐츠에 대한 투명성은 분명 필요하지만, 워터마크와 같은 방식을 사용해도 될 지는 명확하지 않다.

5월 말, 미국 국방부 청사 펜타곤(Pentagon)에 폭발이 일어난 것처럼 보이는 사진이 인터넷에 확산됐다.

펜타곤에서 몇 킬로미터 떨어진 곳에서 백악관 보좌관과 기자들은 사진에 담긴 내용이 사실인지 확인하기 위해 분주하게 움직였다.

사진은 거짓으로 드러났다. 해당 사진은 AI로 생성한 사진이었다. 그러나 정부 관계자, 언론인, 기술 기업들은 가짜 사진이 사회에 실질적인 영향을 미칠 때까지 아무런 조치도 취하지 못했다. 그 사진은 단순히 혼란만을 초래한 것이 아니라 금융 시장 폭락으로까지 이어졌다.

진실을 호도하는 콘텐츠 조작은 새롭게 등장한 현상이 아니다. 그러나 AI를 사용하면 정교하고 초현실적인 콘텐츠를 더 쉽게 제작할 수 있다. 이는 예술적 표현이나 접근성 개선 등 좋은 목적으로 사용될 수도 있지만, 정치 사건을 의심하게 하거나 명예훼손, 괴롭힘, 착취 등 나쁜 목적으로 악용될 수도 있다.

선거의 무결성을 높이고, 증거를 보호하며, 잘못된 정보를 줄이고, 역사적 기록을 보존하고 싶다면 콘텐츠가 조작되거나 AI로 생성됐다고 표시하는 것이 도움이 될 수 있다. 앞에서 언급한 펜타곤 사진에 AI 생성 이미지라는 표시가 되어 있었다면 기술 플랫폼들이 더 신속하게 조처할 수 있었을지도 모른다. 예를 들어, 이러한 이미지가 인터넷에 배포되는 것을 막거나, 콘텐츠에 라벨을 붙여서 그것이 가짜 사진이라는 것을 더 쉽게 식별할 수 있도록 도움을 줄 수 있었을 것이다. 그러면 혼란이나, 더 나아가 그로 인한 시장의 움직임을 피할 수 있었을지도 모른다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!