Humans may be more likely to believe disinformation generated by AI

인간은 AI가 만든 허위 정보를 더 쉽게 믿는다

새로운 연구 결과에 따르면 사람들은 AI 모델이 생성한 정보를 인간이 생성한 정보보다 더 쉽게 믿었다. 연구진은 이 결과가 AI 모델의 텍스트 구성 방식과 관련이 있을 수 있다고 말한다.

사람이 쓴 거짓 정보보다 인공지능이 만든 거짓 정보가 더 설득력 있어 보일 수 있다는 연구 결과가 발표되었다.

이 연구에 따르면 사람들은 사람이 직접 허위 트윗을 작성했을 때보다 AI를 활용해 작성했을 때 허위성을 알아챌 확률이 3% 더 낮았다.

이 연구를 이끈 취리히 대학교(University of Zurich)의 조반니 스피탈레(Giovanni Spitale) 연구원은 그 차이가 적기는 하지만, AI가 생성한 허위 정보 문제가 갈수록 심화하는 점을 고려할 때 이러한 결과가 우려스럽다고 말한다. 해당 연구는 최근 국제학술지 <사이언스 어드밴시스(Science Advances)>에 실렸다.

스피탈레는 “AI를 이용해 값싸고 빠르게 허위 정보를 만들 수 있을 뿐 아니라, 이것이 사람들에게 더 설득력 있게 들린다는 사실이 문제를 악화시킨다”라고 말한다. 그는 오픈AI의 최신 대형 언어모델(LLM)인 GPT-4가 매우 강력하다는 점을 고려할 때, (연구에서 사용한 GPT-3가 아닌) GPT-4를 이용해 실험을 재현했다면 차이가 훨씬 극명하게 나타났을 것으로 생각한다.

연구진은 다양한 유형의 텍스트에 대한 사람들의 감수성을 시험하기 위해 기후변화와 코로나바이러스를 비롯한 일반 주제들을 선택했다. 그런 다음 오픈AI의 GPT-3를 활용해 참, 거짓 내용으로 각각 10개의 트윗을 생성하고, 트위터에서 참, 거짓 내용의 트윗 표본들을 무작위로 수집했다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!