These simple changes can make AI research much more energy efficient

간단한 변화로 AI 연구의 에너지 효율성을 높일 수 있다

알고리즘을 실행하는 클라우드 서비스 설정을 살짝 바꾸는 것만으로도 머신러닝으로 인한 전력 소모량과 탄소 배출량을 크게 줄일 수 있다는 연구 결과가 나왔다.

고급 이미지 인식, 보드게임 챔피언 알파고(AlphaGo), GPT-3 같은 언어모델 등 머신러닝(machine learning)을 기반으로 하는 가장 잘 알려진 성공작들의 배후에는 딥러닝(deep learning)이 있다. 그러나 딥러닝을 이용해서 이렇게 놀라운 성능을 실현하는 데는 대가가 따른다. 딥러닝 모델을 학습시키는 데 엄청난 에너지가 필요하기 때문이다.

최근 이러한 에너지 소비량을 줄이는 데 도움이 될 새로운 연구 결과가 발표됐다. 새 연구는 클라우드 플랫폼을 이용하여 딥러닝 알고리즘을 학습시키는 과학자들이 소비 에너지를 극적으로 줄여서 작업으로 인해 생성되는 탄소 배출량까지 감축하는 방법을 제시했다. 이러한 놀라운 결과를 가져올 수 있었던 핵심은 ‘클라우드 설정을 변경한 것’이었다.

3년 전 딥러닝 기술이 환경에 미치는 영향에 관해 연구한 첫 번째 논문이 발표된 이래로 연구자들 사이에서는 연구에서 소비된 에너지와 탄소 배출량을 스스로 보고하는 움직임이 늘어났다. 정확한 수치를 파악하는 것은 변화를 가져오기 위한 중요한 단계이지만, 실제로 정확한 수치를 파악하는 것은 어려울 수 있다.

미국 시애틀 앨런 인공지능 연구소(Allen Institute for AI)의 연구 과학자 제시 닷지(Jesse Dodge)는 “측정할 수 없는 것을 개선할 수는 없다”며 “탄소 배출량을 줄이는 데 진전이 있기를 원한다면 첫 번째 단계는 배출량을 제대로 측정하는 것”이라고 말했다.

이를 위해 앨런 연구소는 최근 마이크로소프트와 인공지능(AI) 기업 허깅페이스(Hugging Face), 대학 세 곳과 협력하여 마이크로소프트의 클라우드 서비스 애저(Azure)에서 실행되는 머신러닝 프로그램들의 전기 사용량을 측정하는 도구를 만들었다. 이 도구를 이용하면 새로운 모델을 만드는 애저 이용자들은 모델 선정부터 모델 학습과 활용까지 프로젝트 전 단계에서 그래픽처리장치(graphics processing unit(GPU), 병렬연산에 특화된 컴퓨터 칩)가 소비하는 총 전력량을 확인할 수 있다. 이것은 클라우드 사용자에게 머신러닝 프로그램이 소비하는 에너지 관련 정보를 제공하는 첫 번째 도구이다.

로컬 서버에서 실행되는 머신러닝 알고리즘의 에너지 사용량과 탄소 배출량을 측정하는 도구는 이미 존재하지만, 그런 도구들은 마이크로소프트, 아마존, 구글 같은 기업이 제공하는 클라우드 서비스에서는 제대로 작동하지 않는다. 클라우드 서비스는 이용자들에게 그들이 소비하는 GPU, CPU, 메모리 리소스를 직접적으로 보여주지 않지만, 그런 값이 없으면 카본트래커(Carbontracker), 익스페리먼트 트래커(Experiment Tracker), EnergyVis, 코드카본(CodeCarbon) 같은 기존의 도구들은 정확한 추정치를 제공할 수 없기 때문이다.

10월에 처음 발표된 새 애저 도구는 탄소 배출량이 아니라 에너지 사용량을 보고한다. 따라서 닷지와 다른 연구원들은 에너지 사용량을 이용해서 탄소 배출량을 보여주는 방법을 알아냈고, 이를 바탕으로 6월 말에 컴퓨터과학 학회 ‘FAccT’에서 논문을 발표했다. 연구원들은 와트타임(Watttime)이라는 서비스를 이용해서 11개의 머신러닝 모델을 구동하는 클라우드 서버의 우편번호를 바탕으로 탄소 배출량을 추정했다.

그들은 연구자들이 특정 지리적 위치에 있는 서버를 하루 중 특정 시간에 사용하면 탄소 배출량을 크게 줄일 수 있다는 사실을 발견했다. 소규모 머신러닝 모델을 학습시키는 경우 해당 지역에서 재생가능 전기를 더 많이 이용할 수 있는 시간에 모델 학습을 시작하면 탄소 배출량을 최대 80%까지 줄일 수 있으며, 대형 모델의 경우에도 재생가능 전기가 부족할 때 연구를 일시 중지했다가 재생가능 전기가 풍부할 때 다시 시작하면 탄소 배출량을 20% 이상 줄일 수 있다.

전력 사용량을 의식하는 클라우드 이용자들은 3대 클라우드 서비스(마이크로소프트 애저, 구글 클라우드, 아마존 웹서비스)에서 이와 관련한 설정값을 조정하면 탄소 배출량을 줄일 수 있다.

그러나 머신러닝이 기후변화에 미치는 영향을 연구하는 기관 ‘기후변화AI(Climate Change AI)’의 공동설립자 린 카크(Lynn Kaack)는 클라우드 서비스 제공업체들이 탄소 배출량 감축을 위해 이러한 프로젝트들을 자동으로 중단시키고 재시작해야 한다고 말했다.

카크는 “물론 연구자들이 알고리즘 실행 일정을 직접 정할 수도 있겠지만 그러려면 수작업이 많이 필요하다”며 “이런 작업을 대규모로 실행하려면 정책적 장려책이 필요할 것”이라고 말했다. 그녀는 탄소 가격제(carbon pricing) 같은 정책을 사용하면 클라우드 제공업체들이 자동 일시 중지와 재시작을 가능하게 하는 워크플로를 구축해서 이용자들이 선택할 수 있게 할 수 있을 것이라고 설명했다.

특히 대부분의 국가가 여전히 화석연료에 의존하고 있는 현재 상황에서 머신러닝을 더 환경친화적으로 만들기 위해서는 더 많은 연구와 작업이 수행되어야 한다. 닷지는 애저에서 사용하는 도구가 GPU의 소비 전력만을 측정한다는 점을 지적했다. 머신러닝으로 소비되는 에너지를 더 정확하게 측정하려면 물리적 서버를 구축하고 냉각하는 데 필요한 에너지는 물론이고 CPU와 메모리 사용량도 포함되어야 한다.

그러나 습관을 바꾸려면 시간이 걸릴 수 있다. 닷지는 에너지 측정 도구가 10월에 출시된 이후로 머신러닝 프로그램을 운영하는 애저 이용자 중 13%만이 해당 도구를 살펴봤다고 밝혔다. 카본트래커 제작에 도움을 줬던 라가벤드라 셀반(Raghavendra Selvan)은 자신 역시 연구자들에게 머신러닝 연구에서 에너지 측정 도구를 사용하라고 설득하는 데 어려움을 겪고 있다고 말했다.

셀반은 “우리 연구팀을 설득하는 것도 어려웠다”고 밝혔다.

그러나 그는 낙관적이다. ‘NeurIPS’ 같은 주요 학회에서 에너지 측정을 장려하면서 논문에 에너지 사용량을 보고하는 습관을 들이고 있는 연구자들이 늘어나고 있기 때문이다. 셀반은 “미래 프로젝트를 계획할 때 에너지와 탄소 배출량 비용을 고려하는 사람이 늘어난다면 머신러닝이 기후변화에 미치는 영향도 줄어들기 시작할 것”이라고 전망했다. (By Tammy Xuarchive)

미리보기 3회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.