Why Google’s AI Overviews gets things wrong

피자에 접착제를 발라 먹으라니…구글 ‘AI 오버뷰’가 이상한 답변을 내놓는 이유

구글이 내놓은 새로운 AI 검색 기능은 엉망이다. 구글 AI 검색이 우리에게 접착제를 바른 피자와 돌을 먹으라고 하는 등 엉뚱한 답변을 내놓는 이유는 무엇이며, 이러한 오류를 고칠 수 있는지 알아봤다.

5월 초 구글은 인공지능(AI) 기반의 검색 기능을 출시한다고 발표하면서 “고객들을 위해 구글 검색을 대신해주겠다”고 약속했다. ‘AI 오버뷰(AI Overviews)’ 또는 ‘AI 개요’로 불리는 이 새로운 AI 검색 기능은 검색 결과에 더하여 AI로 생성한 주요 정보와 링크가 포함된 간략한 요약 정보를 제공한다.

그러나 안타깝게도 AI 시스템은 본질적으로 신뢰할 수 없다. 미국에서 AI 오버뷰가 출시된 지 불과 며칠 만에 사용자들은 AI 오버뷰가 내놓은 황당한 답변 사례를 공유하기 시작했다. AI 오버뷰는 피자에 접착제를 바르라고 하거나 하루에 작은 돌을 최소 하나씩 먹으라고 제안했고, 1875년에 사망한 앤드루 존슨(Andrew Johnson) 미국 전 대통령이 1947년부터 2012년 사이에 대학 학위를 취득했다고 답하기도 했다.

구글의 검색 부문 책임자인 리즈 레이드(Liz Reid)는 5월 30일 무의미한 검색 질문에 대한 탐지 메커니즘을 개선하는 등 부정확한 검색 결과를 생성할 가능성을 낮추기 위해 시스템을 기술적으로 개선하고 있다고 발표했다. 또한 풍자, 유머, 사용자 제작 콘텐츠 등은 AI 시스템이 오해를 불러일으키거나 잘못된 답변을 생성하는 원인이 될 수 있으므로 답변에 포함되지 않도록 제한하고 있다고 밝혔다.

그렇다면 AI 오버뷰가 신뢰할 수 없고 잠재적으로는 위험할 수 있는 정보를 제공하는 이유는 무엇일까? 그리고 만약 가능하다면, 이 문제를 해결할 수 있는 방법은 무엇일까?

AI 오버뷰의 작동 원리는?

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!