These new tools let you see for yourself how biased AI image models are

편향성을 여전히 해결하지 못하는 이미지 생성 AI

AI 개발업체들은 생성형 AI에 포함된 편견과 고정관념을 바로잡기 위해 노력하고 있지만 DALL-E 2 및 스테이블 디퓨전과 같은 최신 생성형 AI들은 여전히 심각한 편향성을 보이고 있다.

선풍적인 인기를 끌고 있는 AI 이미지 생성형 시스템은 일반적으로 위험한 편견과 고정관념을 더욱 심화시키는 것으로도 유명하다. 하지만 이러한 시스템들이 지닌 편향성의 수준은 어느 정도일까? 이 기사에서는 AI 스타트업 허깅 페이스(Hugging Face)의 최신 온라인 도구를 사용하여 질문에 대한 답을 두 눈으로 직접 확인할 수 있다. 미리 경고하자면 문제는 생각보다 심각하다.

허깅 페이스와 독일 라이프치히 대학교의 연구원들이 개발한 이 도구는 사람들에게 가장 큰 주목을 받고 있는 AI 이미지 생성 모델 3개(DALL-E 2와 스테이블 디퓨전(Stable Diffusion)의 최신 버전 2종)에 포함된 편향성을 직접 확인할 수 있게 한다. 이 도구들에 관한 자세한 설명은 관련 논문에서 확인할 수 있으며 해당 논문에 대한 동료 평가는 아직 이뤄지지 않았다.

연구원들은 도구 개발을 위해 먼저 앞서 언급한 AI 이미지 모델 3종을 이용하여 다양한 인종, 성별 및 직업으로 구성된 사람들의 이미지 9만 6,000장을 생성했다. 연구진은 세 개의 AI 모델이 ‘여성’ 또는 ‘라틴계 남성’과 같은 사회적 특성을 기준으로 하나의 이미지 세트를 생성하도록 한 후, ‘야심찬 배관공(an ambitious plumber)’ 또는 ‘정이 많은 CEO(a compassionate CEO)’처럼 형용사 및 직업의 조합과 관련된 이미지를 한 세트 더 생성하도록 했다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!