Getty Images
The looming crackdown on AI companionship
청소년 자살까지 내모는 ‘AI 동반자’…미국서 규제 초읽기
챗봇과 대화를 나누던 청소년이 자살하는 사건이 발생하면서 AI 안전 문제가 정치적 쟁점으로 떠올랐다. 이제 어떤 일이 벌어질까?
인공지능(AI)이 등장한 이래로 AI가 초래할 수 있는 위험에 대해 경고하는 목소리는 계속 있었다. 그 위험에는 통제 불능의 초지능, AI로 인한 대량 실업, 데이터센터 확장으로 인한 환경 파괴 등이 포함됐다. 그러나 최근에는 이와 전혀 다른 위협이 새롭게 등장했다. 바로 아이들이 AI와 건강하지 못한 유대감을 형성하는 문제였다. 이 새로운 위험성으로 인해 AI 안전 문제는 학계의 우려 수준에서 벗어나 규제 당국의 주목을 받는 사안이 되었다.
현재 상황에 도달하기까지 몇몇 조짐이 있었다. 지난해에는 동반자, 즉 친근한 친구처럼 행동하는 AI 모델로 인해 청소년이 자살에 이르렀다며 캐릭터.AI(Character.AI)와 오픈AI에 각각 소송이 제기됐다. 미국의 비영리 단체인 커먼센스 미디어(Common Sense Media)가 지난 7월에 발표한 연구에 따르면 미국 청소년의 72%가 AI를 ‘동반자’로 사용한 경험이 있다고 한다. 여러 매체에서는 챗봇과의 끝없는 대화로 사람이 망상에 빠지는 과정을 설명하며 ‘AI 정신병’에 관해 보도했다.
이러한 보도의 영향력은 막강하다. 대중은 이를 AI가 단순히 불완전한 기술이 아니라 해로운 기술이라는 증거로 받아들인다. 규제 당국과 기업들이 대중의 분노를 진지하게 받아들이지 않을 거라고 의심했다면, 최근 발생한 세 가지 사건이 그 생각을 바꿔놓을지도 모른다.