fbpx

[인터뷰: 안랩클라우드메이트 최광호 COO] AI 시대 맞이한 클라우드, 어떻게 진화하고 있나?

클라우드 기반의 초거대 AI가 AI 시장의 주류로 자리잡고 있다. 그리고 클라우드 서비스를 기업 환경에 맞춰 제공해 오던 MSP(Managed Service Provider)들 또한 AI 서비스 제공에 나서고 있다. 클라우드 네이티브 기술과 보안, 그리고 AI라는 삼박자를 갖춘 안랩클라우드메이트의 최광호 COO를 만나 AI 시대를 맞이한 클라우드, 그리로 MSP의 변화에 대해 들어봤다.

인공지능(AI)는 주로 2가지 방식으로 제공되고 있다. 하나는 온프레미스(on-premise) 형태로 직접 설치해 사용하는 경우다. 여기에는 기업이나 기관 내부에 컴퓨팅 인프라를 구축하고 AI 모델을 탑재하는 방식과 온디바이스 형태로 스마트폰이나 노트북 PC, 혹은 각종 단말에 직접 설치해서 사용하는 경우가 포함된다.

또 다른 방식은 클라우드 서비스 방식으로 제공되는 경우다. 구글이나 오픈AI, AWS, 마이크로소프트, 앤트로픽 등 주로 엄청난 규모의 데이터로 학습한 대형언어모델(LLM) 중심의 초거대 AI 서비스를 구현하고 제공하고 있는 기업들이 사용하고 있는 방식으로, 수많은 사용자들을 대상으로 서비스를 제공할 수 있으며, 규모의 경제를 구현할 수 있다는 장점이 있다.

그리고 현재 AI 서비스 시장은 이런 클라우드 방식의 초거대 AI 서비스가 장악하고 있다. 그렇다면 AI 서비스를 제공하기 위한 클라우드는 기존 클라우드 서비스와 또 어떤 차이가 있고 어떻게 진화하고 있는지, 안랩클라우드메이트의 최광호 COO를 만나 이야기를 들어봤다.

최광호 COO는 안랩 클라우드사업본부장을 역임하고, 지난 4월 안랩이 클라우드메이트를 인수해 자회사가 된 안랩클라우드메이트의 COO를 맡고 있으며, 한국지능정보사회진흥원에서 추진하고 있는 ‘초거대 AI를 이용한 통합 연구 자원 생성, 관리, 지원 서비스 개발’ 프로젝트를 수행하고 있다.

보안과 클라우드, 그리고 AI에 대한 전문성을 모두 갖춘 최 COO가 초거대 AI와 클라우드에 대해 어떤 생각을 갖고 있는지 알아본다.

최광호 안랩클라우드메이트 COO

안랩이 클라우드메이트를 인수한 이유는 무엇인가?

이전부터 안랩의 클라우드사업본부와 클라우드메이트는 협력 관계를 맺고 함께 협업하는 과정에서 시너지 효과를 얻을 수 있었다. 이는 기존의 하나의 프로그램으로 구성된 모놀리식 구조를 탈피해, 각각의 서비스를 개별적으로 컨테이너화해 이들의 연결로 전체 서비스를 구성하는 MSA(Microservice Architecture) 방식의 클라우드 네이티브 기술력과 AI 역량을 강화하려는 안랩에게 있어 큰 기회였다. 클라우드메이트와 안랩의 클라우드사업본부를 통합함으로써 더 큰 기회, 더 많은 기회를 얻을 수 있을 것이라는 확신이 있었기에 안랩클라우드메이트가 태어날 수 있었다.

이제 안랩클라우드메이트는 안랩 클라우드사업본부의 보안과 관리에 대한 전문성, 그리고 클라우드메이트의 컨테이너 기반 마이크로서비스아키텍처(MSA)와 이를 관리하기 위한 기술인 쿠버네티스(Kubernetes) 등의 클라우드 네이티브 기술력을 크게 강화할 수 있게 됐으며, AI 역량 또한 크게 강화할 수 있었다. 국가 과제로 추진 중인 ‘초거대 AI를 이용한 통합 연구 자원 생성, 관리, 지원 서비스 개발’ 프로젝트에서 데이터 댐을 구축하고 AI 기능 개발, SaaS 서비스 개발 등을 도맡게 된 것이 바로 이런 역량의 강화를 증명하고 있다.

이번에 네이버클라우드와 손잡고 추진하고 있는 ‘초거대 AI를 이용한 통합 연구 자원 생성, 관리, 지원 서비스 개발’ 프로젝트에는 어떤 내용을 담고 있으며, 여기에서 안랩클라우드메이트는 어떤 역할을 하고 있나?

이번 초거대 AI 프로젝트는 ‘경제·인문사회연구회’ 산하의 26개 소관연구기관이 보유한 데이터를 하나의 거대한 데이터 댐(Data Dam)으로 만들고, 이를 초거대 AI에 학습시켜, 연구기획이나 수행, 활용 과정에 도움을 주기 위한 목적으로 AI 기반 정책 연구지원 서비스를 개발하는 프로젝트다.

이 서비스는 경제·인문사회연구회와 산하 기관 소속 연구원들이 연구 기초자료를 생성하고 연구방법론을 추천하거나 지원하고, 연구보고서 초안을 생성하는 방식으로 연구원의 노력과 시간을 줄일 수 있도록 도울 예정이다.

이 서비스 개발과 관련해 안랩클라우드메이트는 주관기관인 네이버클라우드의 초거대 AI 모델인 하이퍼클로바X(HyperCLOVA X)와 연계해 데이터 인프라 구축, 그리고 활용을 위한 서비스 개발을 맡고 있다.

AI 서비스는 온디바이스 AI와 클라우드 기반의 AI 서비스 등 크게 두 가지로 나뉘고 있다. 이 두 가지 AI 모델은 각자 어떤 형태로 발전해 나갈 것이라고 생각하는가?

온디바이스 AI와 초거대 AI는 각자의 강점을 살리며 상호 보완적인 관계로 발전해 나가야 한다. 초거대 AI는 방대한 데이터를 처리하고 복잡한 작업을 수행하는 데 적합하며, 온디바이스 AI는 실시간 응답과 개인화된 서비스를 제공하는 데 적합하다. 이런 조화로운 협력은 AI 생태계 발전을 위한 필수적인 요소다. 특히, 자동차나 UAM 같은 실시간 반응이 중요한 분야에서는 온디바이스 AI의 역할이 필수적이며, 초거대 AI는 이러한 데이터를 학습하고 효율성을 높이는 역할을 담당할 수 있다. 특히 온디바이 AI는 데이터의 필터링과 사전 처리 기능을 통해 초거대 AI의 학습 효율성을 높이는 데 기여할 수 있다.

초거대 AI를 구축하고 운영하기 위해서는 현실적으로 부딪히는 많은 벽들이 있는 것으로 알고 있다. 안랩클라우드메이트는 이런 문제를 해결하기 위한 어떤 방법을 제시하고 있나?

AI의 성능 문제도 중요하지만, 데이터 안전성 역시 큰 이슈다. 특히 초거대 AI의 학습 데이터와 관련된 문제가 가장 크다. 외부 데이터에서는 저작권 문제, 그리고 내부 데이터에서는 정보 유출 문제가 주요 쟁점으로 떠오르고 있다.

외부 자료의 저작권 문제는 공개 자료를 사용하는 등 사전에 대비할 수 있지만, 내부 정보를 학습 데이터로 사용할 경우에는 정보 유출을 방지하기 위해 방법이 필요하다.

안랩클라우드메이트는 안랩의 보안 기술을 적극 활용해, 여러 단계의 필터링과 데이터 처리를 통해 학습 데이터의 안전성을 확보하고, 고객의 데이터를 보호하는 데 초점을 맞추고 있다.

또한 AI를 구축하고 운영하기 위해서는 수많은 노력과 인력, 시간, 자본이 필요한 것이 현실이다. 기업 내의 인프라를 클라우드로 이동시키면서 효율성을 높일 수 있었던 것처럼, AI 또한 SaaS 방식으로 제공한다면 많은 부분을 해결할 수 있을 것이다.

안랩클라우드메이트는 번 초거대 AI 구축 프로젝트를 진행하면서 얻은 노하우를 활용해 SaaS 방식으로 AI를 구축하고 월구독 방식으로 사용할 수 있는 서비스를 선보였다. ‘ACME Intelligence’라고 불리는 이 서비스는 LLM 적용을 위한 데이터 구축에서부터, 기존 서비스를 컨테이너화해 클라우드 네이티브 방식으로 구현하고, 운영과 모니터링, 그리고 파인튜닝에 이르는 전 과정을 누구나 간편하게 구현할 수 있도록 돕는다.

MSP(Managed Service Provider)로써 클라우드의 안정적인 운영을 위한 모니터링과 성능 관리처럼 AI 서비스의 운영을 위해서는 무엇이 필요한가?

AI 생태계에서 가장 중요한 과제 중 하나는 안전성과 신뢰성을 확보하면서도 효율성을 극대화하는 것이다. 이를 위해 고객 맞춤형 보안 솔루션, 데이터 관리, 성능 모니터링을 포함한 종합적인 접근이 필요하다.

하지만 AI 성능 모니터링 툴은 아직 초기 단계에 불과하다. 기존 IT 시스템은 동일한 입력에 동일한 결과를 제공하기에 속도나 처리량과 같은 명확한 평가 지표로 성능을 평가할 수 있었지만, AI는 동일한 입력에서 전혀 다른 결과가 나오는 것이 가능하기 때문에 사용자가 의도한 결과를 얼마나 잘 도출하느냐가 AI 성능 평가의 지표가 되어야 한다. 따라서 AI의 성능을 평가하기 위한 새로운 기준과 방식이 필요하며, 이를 기반으로 AI 시스템의 성능과 안정성을 평가하고 개선해 나가야 할 것이다.

클라우드를 기반으로 AI 서비스를 개발하는 경우, 클라우드 네이티브 방식을 도입을 시도하는 경우가 많은 것으로 알고 있다. 이런 경우에 주의해야 할 점은 무엇인가?

클라우드 네이티브 AI의 도입 과정에서는 CSP(Cloud Service Provider)에 대한 의존성이 가장 큰 문제로 지적된다. 기업들은 의존성을 줄이고 싶어 하지만, 실제 AI 서비스를 구현하는 과정에서 CSP의 네이티브 툴을 사용할 수밖에 없는 경우가 많다. 이는 서비스 분리나 마이그레이션에서 큰 장애물이 되고 있다.

클라우드 네이티브 AI를 구현하기 위해서는 서비스를 기능 단위로 분리해 컨테이너화하는 MSA(Microservices Architecture)를 제대로 구현해야만 한다. 하지만 이를 위해서는 해당 도메인 영역의 업무 프로세스에 대해 해박한 전문가의 지식이 필수적이다. 단순히 기능을 컨테이너화한다고 해서 MSA가 구현되는 것이 아니기 때문이다. 문제는 클라우드 네이티브 관련 전문가도 부족한 상황에서 도메인 관련 지식까지 갖춘 전문가를 일반 공공기관이나 중견, 중소기업들이 확보하는 것은 너무나 어렵다는 것이다.

AI는 AI 기술은 단순히 속도와 효율성을 강조하는 데 그치지 않고, 기술적 진보와 함께 도메인 지식, 실제 비즈니스 적용을 통해 실질적인 가치를 더하는 방향으로 나아가야 한다. 이러한 목표를 달성하기 위해 MSP와 같은 서비스 제공업체는 AI를 위한 MSP는 고객의 보안과 데이터 관리를 우선적으로 고려하며, 성능 모니터링과 비용 최적화를 통해 고객이 원하는 안전하고 효과적인 서비스를 제공해 나가야 한다.

이러한 노력은 궁극적으로 AI 생태계 전반의 발전과 글로벌 경쟁력 강화로 이어질 것이다.

안랩클라우드메이트의 최광호 COO는 이전에 안랩에서 보안 전문가로 시작해, 클라우드 사업본부장을 역임하고, 안랩 클라우드사업본부와 클라우드메이트의 합병으로 안랩클라우드메이트의 COO를 맡고 있다. 그는 보안, 클라우드, 그리고 이제는 AI까지 섭렵하면서 한국지능정보사회진흥원의 ‘초거대 AI를 이용한 통합 연구 자원 생성, 관리, 지원 서비스 개발’ 프로젝트에 네이버 클라우드 컨소시엄으로 참여하는 등, 클라우드 기반 AI 서비스 개발에 주력하고 있다.