
AI 비서의 위험한 진화…‘오픈클로’가 던진 경고
인공지능(AI) 에이전트는 본질적으로 위험을 내포한 기술이다. 대형언어모델(LLM)은 채팅창 안에서 작동할 때조차 오류를 내거나 엉뚱한 행동을 한다. 여기에 웹 브라우저나 이메일 계정처럼 외부와 직접 상호작용할 수 있는 도구까지 주어지면 작은 실수도 훨씬 큰 문제로 번질 수 있다.
이런 맥락에서 최근 가장 큰 반향을 일으키고 있는 LLM 기반 개인 비서 ‘오픈클로(OpenClaw)’가 평판과 법적 책임을 동시에 고려해야 하는 대형 AI 연구소가 아니라 상대적으로 이런 문제로부터 자유로운 개인 개발자의 손에서 나왔다는 사실은 시사하는 바가 크다. 오픈클로는 독립 소프트웨어 엔지니어 피터 슈타인베르거(Peter Steinberger)가 2025년 11월 코드 공유 플랫폼 깃허브(GitHub)에 공개하면서 지난 1월 말 온라인을 중심으로 빠르게 확산되며 단숨에 화제의 중심에 섰다.
오픈클로는 오픈소스 기반 개인용 AI 비서로, 사용자가 기존 LLM을 활용해 자신의 컴퓨터나 장치에서 실행하며 이메일 정리, 일정 관리, 웹 브라우저 조작, 파일 작업 등 실제 작업을 자동화할 수 있는 도구다. 그러나 그 편의성에는 분명한 대가가 따른다. 수년간 쌓인 이메일과 하드드라이브에 저장된 각종 파일 등 방대한 개인정보를 AI에 통째로 맡겨야 할 수도 있기 때문이다.
이 지점에서 보안 전문가들의 경고가 이어지고 있다. 최근 몇 주 사이 오픈클로의 위험성을 지적하는 보안 관련 블로그 글이 쏟아졌고, 중국 정부마저 오픈클로의 보안 취약성과 관련해 공개적으로 경고에 나설 정도다.