
챗GPT도 사람을 차별하는지 알아봤더니…놀라운 결과
사용자의 이름이 로리(Laurie)든 루크(Luke)든 라숀다(Lashonda)든 상관없이 챗GPT가 모두를 똑같이 대할까? 이에 관한 연구 결과에 따르면 챗GPT는 어떤 사용자든 ‘거의’ 똑같이 대하지만 ‘완전히’ 똑같이 대한다고 말할 수 없는 것으로 드러났다. 오픈AI가 자사의 인기 챗봇인 챗GPT와 사용자 간에 이루어진 수백만 건의 대화 내용을 분석한 결과 챗GPT가 사용자의 이름을 근거로 유해한 성별이나 인종적 고정관념을 생성하는 경우가 평균적으로 1,000건의 응답 중 1건, 최악의 경우에는 100건의 응답 중 1건에 이르는 것으로 나타났다.
정확하게 따져 보겠다. 이 정도 비율이면 꽤 낮은 것처럼 보이지만, 챗GPT의 주간 사용자 수가 2억 명에 달하고 ‘포천’지 선정 500대 기업 중 90% 이상이 오픈AI의 챗봇 서비스에 연결돼 있다는 오픈AI의 주장을 고려하면, 낮은 비율이라고 해도 합쳐지면 챗GPT가 상당한 편향성을 보인다고 말할 수 있다. 게다가 구글 딥마인드의 제미나이 모델과 같은 다른 인기 챗봇들도 비슷한 수준의 편향성을 보일 것으로 예상할 수 있다. 오픈AI는 자사 모델을 더 개선하고 싶다고 밝혔는데, 그러려면 우선 모델을 평가해 봐야 할 것이다.
인공지능(AI)의 편향성은 심각한 문제다. 윤리학자들은 기업이 AI 모델을 사용해 이력서나 대출 신청서 같은 것들을 심사할 때 이러한 편향성이 결과에 미치는 영향을 오랫동안 연구해 왔다. 오픈AI 연구진은 이를 ‘제3자 공정성(third-person fairness)’을 알아보는 연구라고 부른다.