fbpx
Is a secure AI assistant possible?

AI 비서의 위험한 진화…‘오픈클로’가 던진 경고

개인 개발자가 만든 LLM 기반 AI 비서 ‘오픈클로’가 폭발적인 관심을 끌고 있다. 그러나 방대한 개인정보 접근과 보안 취약성 논란이 확산되며 AI 에이전트의 위험성이 다시 주목받고 있다.

인공지능(AI) 에이전트는 본질적으로 위험을 내포한 기술이다. 대형언어모델(LLM)은 채팅창 안에서 작동할 때조차 오류를 내거나 엉뚱한 행동을 한다. 여기에 웹 브라우저나 이메일 계정처럼 외부와 직접 상호작용할 수 있는 도구까지 주어지면 작은 실수도 훨씬 큰 문제로 번질 수 있다.

이런 맥락에서 최근 가장 큰 반향을 일으키고 있는 LLM 기반 개인 비서 ‘오픈클로(OpenClaw)’가 평판과 법적 책임을 동시에 고려해야 하는 대형 AI 연구소가 아니라 상대적으로 이런 문제로부터 자유로운 개인 개발자의 손에서 나왔다는 사실은 시사하는 바가 크다. 오픈클로는 독립 소프트웨어 엔지니어 피터 슈타인베르거(Peter Steinberger)가 2025년 11월 코드 공유 플랫폼 깃허브(GitHub)에 공개하면서 지난 1월 말 온라인을 중심으로 빠르게 확산되며 단숨에 화제의 중심에 섰다.

오픈클로는 오픈소스 기반 개인용 AI 비서로, 사용자가 기존 LLM을 활용해 자신의 컴퓨터나 장치에서 실행하며 이메일 정리, 일정 관리, 웹 브라우저 조작, 파일 작업 등 실제 작업을 자동화할 수 있는 도구다. 그러나 그 편의성에는 분명한 대가가 따른다. 수년간 쌓인 이메일과 하드드라이브에 저장된 각종 파일 등 방대한 개인정보를 AI에 통째로 맡겨야 할 수도 있기 때문이다.

이 지점에서 보안 전문가들의 경고가 이어지고 있다. 최근 몇 주 사이 오픈클로의 위험성을 지적하는 보안 관련 블로그 글이 쏟아졌고, 중국 정부마저 오픈클로의 보안 취약성과 관련해 공개적으로 경고에 나설 정도다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!