
우리는 왜 AI 탄소발자국 측정 방식을 개선해야 할까
몇 주 뒤면 크리스마스고, 지난 주말 런던은 외투를 걸치지 않고도 야외에서 맥주 한 잔 정도 할 수 있을 만큼 따뜻했다. 제27차 유엔기후협약 당사국회의(COP27) 개최를 계기로 나는 인공지능(AI)이 배출하는 탄소발자국 문제에 관심을 쏟고 있다. 나는 최근 현재 AI 분야에서 가장 많은 관심을 받는 제품 중 하나인 ‘대규모 언어 모델(large language model)’의 탄소배출량을 계산해 보려는 최초의 시도와 그런 시도가 기술기업들이 친환경 활동에 더 애쓰게 만드는 데 어떤 도움을 줄 수 있을지를 주제로 글을 쓴 적이 있다.
AI 스타트업인 허깅 페이스(Hugging Face)가 대규모 언어 모델 블룸(BLOOM)의 탄소배출량을 계산해 본 결과 훈련 과정에서 25톤의 탄소를 배출하는 것으로 밝혀졌다. 그러나 블룸을 실행하는 데 필요한 더 큰 규모의 하드웨어 및 인프라 관련 비용까지 감안했을 때 배출량은 두 배로 늘어났다. 허깅 페이스 연구진은 이 같은 연구 결과를 담은 논문을 출판 전 논문 수집 사이트인 arXiv에 게재했으며, 그들의 논문은 동료 검토를 받을 예정이다.
이 연구 결과가 그다지 놀랄 만한 건 아니다. 블룸은 오픈AI(OpenAI)의 GPT-3나 메타의 OPT 같은 대규모 언어 모델들과 비교해서 훨씬 더 ‘친환경적’인 편이다. 원자력으로 구동되는 프랑스 슈퍼컴퓨터로 훈련을 받았기 때문이다. 다만 이 연구 결과는 블룸이 단순한 훈련 차원을 넘어서 실제 세계에서 사용되는 방식에 이르기까지 AI 모델이 기후에 미치는 영향을 계산할 수 있는 진화된 방법을 제시했다는 데서 의미를 찾을 수 있다.
AI 모델을 훈련시킬 때 배출되는 탄소는 빙산의 일각에 불과하다. 훈련 과정 역시 심한 오염을 초래하지만 한 번만 하면 되기 때문이다. 하지만 출시된 AI 모델은 기술기업들의 추천 엔진이나 사용자 의견 분류 활동 등을 지원하는데, 그러한 작업 한 번에 소요되는 에너지가 많지는 않더라도 작업이 하루에 수십억 번씩 반복적으로 수행되기 때문에 이때 나오는 탄소의 양을 모두 합산하면 이야기가 달라진다.
AI와 기후변화에 대해 연구하는 데이비드 롤닉(David Rolnick) 맥길 대학교 컴퓨터 과학과 조교수는 “기술기업들은 AI 모델이 환경에 악영향을 주지 않는 것처럼 보이게 만들려고 모델의 훈련 과정에서 나오는 배출량만 부각시키려고 한다”고 지적했다.
그러나 AI가 배출하는 진짜 탄소발자국 양은 허깅 페이스의 연구에서 제시된 양보다도 더 많을 수 있다는 게 롤닉의 주장이다.
AI가 기후변화와 싸우는 데 중요한 역할을 하지만, 동시에 그것은 우리가 사는 지구를 죽음의 소용돌이에 빠져들게 만드는 데도 기여한다. 전 세계 기술 부문은 전 세계 온실가스 배출량의 1.8~3.9%를 배출하는 것으로 추정된다. AI와 기계 학습으로 인한 배출량은 이러한 배출량의 일부에 불과하지만 AI의 탄소발자국은 기술 부문 내 단일 분야로 쳤을 때 여전히 매우 높은 편이다.
허깅 페이스 연구진의 논문은 AI 모델이 유발하는 광범위한 탄소 배출량에 대해 정직한 데이터를 제공해주며, 이는 문제 해결을 시작하는 좋은 방법이다. AI 모델 분야를 선도하는 구글과 메타 같은 기술기업들은 AI 모델의 탄소배출량 데이터를 발표하지 않아 현재 AI의 탄소발자국에 대한 정확한 실태 파악이 어렵다.
우리는 기술기업들에게 AI 구축·훈련·사용이 기후변화에 미치는 영향을 알 수 있도록 더 많은 데이터를 제공하도록 요구하는 일부터 시작해야 한다. 아울러 AI 모델을 거대화하려는 집착에서 벗어나 기존 모델을 미세 조정하는 방법 등을 통해 보다 에너지 효율적으로 AI 연구를 수행하는 방법도 모색해야 한다.