fbpx
This startup’s new mechanistic interpretability tool lets you debug LLMs

AI 환각 사라질까…LLM 내부 분석해 고치는 새 도구 나왔다

미국 스타트업 굿파이어가 AI 모델 내부를 분석하고 조정할 수 있는 도구를 공개했다. 이 기술은 모델 훈련 과정을 디버깅 가능한 공학적 과정으로 바꾸는 것을 목표로 한다.

샌프란시스코에 소재한 스타트업 굿파이어(Goodfire)는 최근 ‘실리코(Silico)’라는 새로운 도구를 출시했다. 이는 연구자와 엔지니어가 훈련 과정에서 AI 모델의 내부 구조를 들여다보고, 모델의 동작을 결정하는 설정인 매개변수를 조정할 수 있는 도구다. 이를 통해 모델 제작자는 지금까지 불가능하다고 여겨졌던 수준까지 AI 모델 구축 과정을 더 세밀하게 제어할 수 있게 된다.

굿파이어는 실리코가 데이터세트 구축부터 모델 훈련에 이르기까지 AI 모델 개발 과정의 전 단계에서 개발자들이 디버깅할 수 있도록 돕는 최초의 상용 도구라고 주장한다. 디버깅은 프로그램 안의 오류나 이상 동작을 찾아 원인을 분석하고 수정하는 과정을 의미한다.

굿파이어는 또한 AI 모델 구축을 연금술 같은 과정이 아니라 과학적인 과정으로 만드는 것을 사명으로 삼고 있다고 주장한다. 실제로 챗GPT나 제미나이 같은 대형언어모델(LLM)은 놀라운 일을 해낼 수 있지만, 정확히 어떻게 또는 왜 그런 결과가 나오는지 아무도 알지 못하기 때문에 결함을 수정하거나 원치 않는 행동을 차단하기가 어려울 수 있다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!