
MITTR | Adobe Stock
What AI “remembers” about you is privacy’s next frontier
AI가 사용자 정보를 ‘기억’하는 시대, 우리 개인정보는 안전할까?
정보를 기억하는 AI 에이전트의 기술적 구조로 인해 사용자의 삶 전체가 노출되는 개인정보 침해 문제가 발생할 수 있다.
AI 챗봇과 에이전트 경쟁의 핵심이 이제 ‘사용자를 얼마나 잘 기억하는가’로 옮겨가고 있다.
1월 초 구글은 자사의 제미나이 챗봇과 상호작용하는 새로운 방식인 ‘퍼스널 인텔리전스(Personal Intelligence)’를 발표했다. 이는 사용자의 지메일, 사진, 검색 기록, 유튜브 시청 기록 등을 활용해 제미나이를 ‘더 개인화되고, 능동적이며, 강력한 도구’로 만드는 기능이다. 이번 시도는 오픈AI, 앤트로픽, 메타가 자사 AI 제품에 사용자의 개인 정보와 선호도를 기억해 활용하는 기능을 추가하려는 흐름과도 맞닿아 있다. 이러한 기능은 분명 이점이 있을 수 있지만, 동시에 이처럼 복잡한 기술이 불러올 새로운 위험에 대해서도 충분히 대비해야 할 필요가 있다.
강력한 개인화와 상호작용 기능을 갖춘 AI 시스템은 사용자를 대신해 행동하고, 대화의 맥락을 이어 가며, 여행 예약부터 세금 신고까지 다양한 작업을 더 효율적으로 수행할 수 있도록 설계돼 있다. 개발자의 코딩 스타일을 학습하는 도구부터 수천 개의 상품을 분석하는 쇼핑 에이전트까지, 이러한 시스템들은 사용자에 관한 사적인 정보를 저장하고 다시 불러오는 능력을 활용한다.
그러나 시간이 지날수록 ‘빅데이터’가 처음으로 사용자 패턴을 포착하고 활용하는 능력을 보여주기 시작한 이래로 반복되어 온 개인정보 보안 취약성 문제가 다시 등장한다. 더 우려스러운 점은 이제 AI 에이전트가 이러한 위험을 막기 위해 마련됐던 기존의 안전장치마저 무력화할 가능성이 커지고 있다는 것이다.