
에너지 절약 기대했지만…딥시크, 추론 단계서 에너지 소비 급증
중국의 AI 모델 딥시크(DeepSeek)가 공개된 지 일주일 만에 각종 논란이 연일 쏟아지고 있다. 딥시크가 개인 데이터를 수집한다는 의혹이나 기존 AI 패러다임이 딥시크로 인해 완전히 재편될 것이라는 전망(아직 단정하기는 이르지만, 동료 기자 윌 헤븐(Will Heaven)의 분석은 참고할 만하다) 등 사실 여부가 엇갈리는 주장들도 나오고 있다. 그러나 그중에서도 가장 큰 주목을 받는 것은 딥시크의 혁신적이고 효율적인 접근 방식이 AI의 막대한 에너지 소비 문제를 해결할 열쇠가 될 수 있을 것이라는 기대다.
그러나 MIT 테크놀로지 리뷰가 확보한 데이터에 따르면 현실은 이러한 기대와는 다르게 전개되고 있다. 딥시크의 소형 모델이 소량의 프롬프트를 처리하는 성능을 기준으로 했을 때 딥시크는 같은 크기의 메타가 만든 모델보다 응답을 생성하는 데 더 많은 에너지를 소모할 수 있다는 분석이 나온 것이다. 이는 모델의 학습 과정에서 절감한 에너지가 보다 복잡한 방식으로 긴 답변을 생성해내면서 모두 상쇄될 수 있음을 시사한다.
여기에 딥시크의 접근법에 영향을 받은 다른 기술 기업들까지 유사한 저비용 추론 모델 개발에 나설 가능성까지 더해지면서 AI의 에너지 소비 전망은 더욱 불투명해지고 있다.
AI 모델의 생애 주기는 두 가지 단계로 나뉜다. 먼저 모델이 수개월에 걸쳐 데이터를 익히는 ‘학습’ 단계를 거친 후, 전 세계 사용자가 질문을 입력할 때마다 실시간으로 실행되는 ‘추론’ 과정으로 넘어간다. 두 단계 모두 데이터 센터에서 이루어지며 칩을 가동하고 서버를 냉각하는 데 상당한 에너지가 투입된다.