We need to start wrestling with the ethics of AI agents
사람 같은 AI 에이전트 시대, 윤리적 문제는 없을까?
AI가 인간의 성격을 흉내 내고 대신해서 행동까지 할 수 있는 시대가 다가오고 있다. 그 전에 논의해야 할 윤리적인 문제들을 짚어본다.
생성형 AI 모델은 우리와 대화를 나누거나 이미지, 동영상, 음악을 제작하는 데 놀라울 정도로 뛰어난 능력을 보여주고 있다. 하지만 우리를 대신해 특정 행동을 수행하기에는 아직 한계가 뚜렷하다.
바로 이 부분을 개선할 잠재력을 지닌 기술이 ‘AI 에이전트’이다. AI 에이전트를 간단히 정의하자면 대본과 목적을 기반으로 작동하는 AI 모델이라고 할 수 있는데, 크게 두 가지 형태로 나뉜다.
첫 번째는 ‘툴 기반 에이전트’로, 코딩 대신 자연어로 지시를 내리면 디지털 작업을 수행할 수 있다. AI 스타트업 앤트로픽(Anthropic)은 지난 10월 주요 AI 모델 개발사로는 처음으로 이러한 에이전트를 선보였다. 이 에이전트는 “이 양식을 작성해 줘”와 같은 지시를 받으면 컴퓨터에서 구체적인 작업으로 변환한다. 커서를 움직여 브라우저를 열고 필요한 데이터를 찾은 뒤, 이를 양식에 입력하는 것이다. 고객관계관리(CRM) 소프트웨어 기업 세일즈포스도 자체 에이전트를 출시했으며 챗GPT 개발사인 오픈AI는 내년 1월 비슷한 기능을 선보일 예정이다.