What I learned from the UN’s “AI for Good” summit

유엔 ‘AI 포 굿’ 글로벌 서밋에서 얻은 교훈

샘 올트먼 오픈AI CEO는 지난달 스위스 제네바에서 열린 ‘AI 포 굿(Ai for Good)’ 글로벌 서밋의 스타 연사였다. 하지만 그는 아쉬움이 많이 남는 말을 남겼다.

필자는 국제전기통신연합(ITU) 주최로 지난달 29일부터 31일까지 스위스 제네바에서 열린 ‘AI 포 굿’ 글로벌 서밋에 참석했다. 이번 서밋에서는 빈곤과 기아 퇴치, 성평등 달성, 청정에너지와 기후 행동 촉진 등 유엔이 정한 ‘지속가능한 개발 목표’를 달성하기 위해 인공지능(AI)을 활용할 수 있는 방안에 대한 논의가 집중적으로 펼쳐졌다.

서밋에선 와인을 따는 로봇을 포함해 많은 로봇이 등장하며 시선을 끌었다. 그런데 무엇보다도 필자의 마음에 쏙 들었던 일은 아프리카 언어용 AI를 개발하는 스타트업 레라파 AI(Lelapa AI)의 펠로노미 모일로아(Pelonomi Moiloa) 최고경영자(CEO)를 비롯해 중국, 중동, 아프리카에서도 연사가 참여하는 등 전 세계에서 많은 AI 분야 종사자들이 한자리에 모였다는 점이었다.

AI가 매우 미국 중심적이면서 남성 중심적인 도구로 간주될 수 있다는 점에서 이에 대한 대화를 보다 글로벌하고 다양하게 만들기 위한 이 같은 노력은 칭찬할 만하다고 하겠다.

하지만 필자는 서밋이 끝나는 날까지도 AI가 유엔이 정한 ’지속가능한 개발 목표‘를 발전시키는 데 유의미한 역할을 할 것이라는 데 확신하지 못했다. 사실 AI가 어떻게 그와 정반대의 역할을 하고 있는지를 알려준 연설이 가장 흥미롭게 느껴졌다.

기후 운동가 세이지 레니어(Sage Lenier)는 AI가 환경 파괴를 가속화하도록 방치해서는 안 된다고 주장했다. 인도적기술센터(Center for Humane Technology)의 공동 설립자 트리스탄 해리스(Tristan Harris)는 소셜 미디어 중독, 기술 부문의 재정적 인센티브, 과거 일어난 기술 붐에서 배우지 못한 점들을 연결하며 설득력 있는 강연을 펼쳤다. 또한 ’위민 인 AI 에틱스(Women in AI Ethics)‘의 설립자 미아 샤-단드(Mia Shah-Dand)는 기술 업계에 여전히 성 편견이 뿌리 깊게 존재한다는 사실을 상기시켰다.

이런 면에서 서밋이 명목상으로는 AI를 ’선하게(good)’ 사용하는 방법을 논하기 위해 모인 자리였지만, 사실 개발부터 배포에 이르는 과정에서 투명성, 책임성, 포용성을 높여 AI 자체를 어떻게 선하게 만들 수 있는지에 대해 더 많은 이야기를 나눴으면 좋았을 것 같다는 생각이 들었다.

우리는 이제 생성형 AI로 이미지 하나를 만드는 데도 스마트폰을 충전할 때만큼이나 많은 에너지를 소비해야 한다는 사실을 잘 알고 있다. 따라서 필자는 서밋에서 기후 목표를 달성하기 위해 기술 자체를 더 지속가능하게 만드는 방법에 대해 좀 더 솔직한 대화가 오가지 못한 게 아쉬웠다.

그리고 우리가 사용하는 많은 AI 시스템이 땅콩을 임금으로 받으면서 충격적인 콘텐츠를 선별하는 글로벌 사우스(Global South·남반구나 북반구의 저위도에 위치한 아시아, 아프리카, 남아메리카의 개발도상국가를 통칭하는 용어)에 거주하는 인간 콘텐츠 모더레이터의 노동력을 착취해 구축되었다는 사실을 알고 있는 상황에서 불평등을 줄이기 위해 AI를 어떻게 사용할 수 있는지에 대한 논의를 듣고 있자니 어색한 느낌마저 들었다.

이번 서밋의 연사 중 가장 눈에 띄면서 가장 많은 관심을 받은 샘 올트먼 오픈AI CEO는 AI가 ‘엄청난 혜택’을 준다는 점을 강조했다. 그는 얼마 전 오픈AI와 새로운 AI 모델 학습을 위한 콘텐츠 공유 계약을 발표한 잡지 〈디애틀랜틱(the Atlantic)〉의 니콜라스 톰슨(Nicholas Thompson) CEO와 원격으로 인터뷰를 진행했다.

오픈AI가 현재의 AI 붐을 일으킨 회사라는 점에서 인터뷰는 올트먼에게 앞서 열거한 모든 문제에 대해 질문할 좋은 기회였을 수 있다. 하지만 두 사람은 ‘안전’을 주제로 수준 높은 토론을 진행했지만, 올트먼의 답변이 모호하다 보니 청중은 오픈AI가 AI 시스템을 더 안전하게 만들기 위해 정확히 무엇을 하고 있는지를 자세히 알기가 힘들었다. 청중은 그저 올트먼이 하는 말만 믿으면 될 것 같았다.

올트먼의 인터뷰는 ‘조지타운 보안 및 신흥 기술센터(Georgetown Center for Security and Emerging Technology)’ 연구원이자 오픈AI 이사 출신인 헬렌 토너(Helen Toner)가 한 인터뷰에서 “오픈AI 이사회가 챗GPT 출시 사실을 (직접 듣지 못하고) 트위터를 통해서 알게 되었고, 올트먼이 회사의 공식 안전 절차에 대해 이사회에 여러 차례 부정확한 정보를 제공했다”고 주장하고 나서 일주일 정도 지난 후에 한 것이었다.

토너는 또한 막대한 수익을 올리려는 인센티브가 항상 승리할 것이므로 AI 회사가 스스로를 관리하도록 만드는 건 나쁜 생각이라고 주장했다. (올트먼은 토너의 기억하고 있는 일이 일어났다는 데 동의하지 않았다.)

톰슨이 생성형 AI로 인해 누릴 수 있는 가장 좋은 점이 무엇인지 질문하자 올트만은 ‘생산성’을 언급하며, 소프트웨어 개발자가 AI 도구를 사용하여 훨씬 빠르게 작업을 수행할 수 있다는 등의 사례를 들었다. 그는 “다양한 산업에서 이러한 도구를 사용할 수 있게 되면서 이전보다 훨씬 더 생산성이 높아질 것”이라면서 “그리고 이는 모든 분야에 긍정적인 영향을 미칠 것”이라고 기대했다. 필자는 과연 정말로 그럴 것이라고 단정하는 건 시기상조라고 생각한다.