fbpx
LLMs+

LLMs+

대형언어모델(LLM)은 진화하고 있다. 전 세계에서 가장 주목받는 이 기술의 차세대 버전은 더 저렴하고 효율적이며, 오류를 범하지 않고 더 큰 문제를 해결할 수 있을 것이다.
📋한눈에 보는 AI 요약AI 자동 요약▶ 펼쳐보기

챗GPT 같은 대형 언어 모델(LLM)은 이미 수억 명이 쓰는 기술이 됐고, 다음 단계는 이 LLM을 더 똑똑하고 효율적으로 만드는 것입니다. 사람이 며칠이나 몇 주 걸려 해결하는 복잡한 문제를 AI가 스스로 오래 작업하며 풀 수 있도록 하는 게 목표입니다. 이를 위해 모델을 작은 전문가 모듈로 나누거나, 한 번에 읽을 수 있는 정보량을 크게 늘리거나, 큰 작업을 여러 조각으로 쪼개서 처리하는 등 다양한 방법이 연구되고 있습니다. 결국 미래의 AI도 여전히 LLM이지만, 지금보다 훨씬 발전한 형태가 될 것입니다.

왜 중요한가요?

AI가 더 복잡한 문제를 스스로 해결할 수 있게 되면, 의료 연구나 법률 분석처럼 오래 걸리는 전문 작업을 빠르고 저렴하게 처리할 수 있어 우리 일상과 산업 전반에 큰 변화를 가져올 수 있습니다.

주요 용어 설명
컨텍스트 윈도우 (Context Window)

AI가 한 번에 읽고 기억할 수 있는 정보의 양을 말합니다. 사람으로 치면 시험 볼 때 책상 위에 펼쳐놓을 수 있는 노트 분량과 비슷한데, 예전에는 수십 페이지였지만 최신 모델은 책 여러 권 분량까지 한꺼번에 볼 수 있게 발전했습니다. 다만 너무 많은 정보를 한 번에 다루면 중요한 내용을 놓칠 위험도 커집니다.

트랜스포머 (Transformer)

현재 대부분의 AI 언어 모델이 사용하는 핵심 설계도입니다. 문장 속 단어들이 서로 어떤 관계를 갖는지 한꺼번에 파악하는 데 뛰어나서 챗GPT 같은 서비스의 기반이 됐습니다. 하지만 처리할 데이터가 많아지면 비용이 크게 늘어나는 단점이 있어 대안 구조가 연구되고 있습니다.

확산 모델 (Diffusion Model)

원래 이미지나 영상을 만드는 데 주로 쓰이던 AI 방식으로, 노이즈(잡음)가 가득한 상태에서 점점 깨끗한 결과물을 만들어가는 원리입니다. 마치 흐릿한 사진을 조금씩 선명하게 복원하는 것과 비슷합니다. 이 방식을 텍스트 처리에도 적용하면 트랜스포머를 대체할 수 있을지 실험이 진행 중입니다.

재귀적 LLM (Recursive LLM)

방대한 양의 정보를 한꺼번에 처리하는 대신, 데이터를 여러 조각으로 나눠서 AI의 복제본들이 각각 맡아 처리하는 방식입니다. 마치 두꺼운 보고서를 팀원들이 챕터별로 나눠 읽고 요약한 뒤 합치는 것과 같습니다. 이렇게 하면 긴 작업에서도 맥락을 잃거나 실수할 가능성이 줄어듭니다.

⚡ Claude AI가 독자를 위해 자동 생성한 요약입니다. 원문을 함께 읽어보세요.

2022년 말 실험용 프로토타입으로 출시된 오픈AI의 챗봇 챗GPT는 수억 명이 사용하는 일상 속 범용 앱으로 빠르게 자리 잡았다. 이런 챗GPT와 같은 LLM은 새로운 기술 패러다임으로 부상했고, 기술 업계 전반이 이 흐름에 휩쓸리며 경쟁 제품 출시 경쟁에 뛰어들었다.

기존 기술 질서의 여파가 채 가라앉기도 전에 업계는 벌써 다음 단계를 묻고 있다. 결론부터 말하면, LLM 이후의 미래 역시 LLM이다. 다만 더 발전한 형태다. 이를 ‘LLM+’라고 부르겠다.

핵심 과제는 인간이 해결하는 데 며칠 또는 몇 주가 걸리는 복잡하고 다단계적인 문제를 LLM이 처리할 수 있도록 만드는 것이다. 이를 위해서는 LLM이 더 오랜 시간 자율적으로 작동할 수 있어야 한다.

이를 실현하려면 몇 가지 조건이 필요하다. 우선 LLM의 효율성을 높이고 운영 비용을 낮춰야 한다. 이 분야에서는 이미 상당한 진전이 이루어지고 있다. 대표적인 접근방식은 ‘전문가 혼합(mixture-of-experts)’은 모델을 여러 개의 작은 모듈로 나누고 각 모듈에 특정 작업에 대한 전문성을 부여하는 방식이다. 이를 통해 필요할 때 일부 모듈만 선택적으로 작동시킬 수 있다.

또 다른 접근방식은 현재 대부분의 LLM 기반 구조인 ‘트랜스포머(transformer)’를 대체하는 것이다. 대안으로는 주로 이미지와 영상 생성에 활용되는 ‘확산 모델(diffusion model)’이 거론된다. 이 외에도 실험적인 시도가 이어지고 있다. 중국 AI 기업 딥시크는 텍스트를 이미지 형태로 인코딩해 연산 비용을 줄이는 방법을 선보이기도 했다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!