
번아웃에 시달리는 ‘책임 있는 AI’ 담당자들
일을 쉬어야겠다는 생각이 들기 전까지 마거릿 미첼(Margaret Mitchell)은 구글에서 2년째 일하고 있었다. 구글 윤리적 인공지능(AI)팀의 설립자이자 공동 대표였던 미첼은 전과 달리 주기적으로 우울감과 좌절감을 느꼈다.
그녀는 상담 치료를 받고 나서야 무엇이 문제인지 알 수 있었다. 자신이 번아웃 증후군을 앓고 있었던 것이다. 결국 그녀는 병가를 내기로 했다. 번아웃 증후군은 한 가지 일에 몰두하던 사람이 정신적·육체적으로 극도의 피로를 느끼고 이로 인해 무기력증, 자기혐오, 직무 거부 등에 빠지는 증상을 말한다.
미쳴과 비슷한 경험을 한 사람은 셀 수 없을 정도로 많다. 현재 그녀는 AI 스타트업인 허깅페이스(Hugging Face)에서 수석 윤리과학자 및 AI 연구원으로 일하고 있다. 보스턴컨설팅그룹(Boston Consulting Group)의 ‘책임 있는 AI(Responsible AI)’ 분야 컨설턴트이자 몬트리올AI 윤리연구소(Montreal AI ethics institute)의 설립자인 아비섹 굽타(Abhishek Gupta)에 의하면 이 ‘책임 있는 AI’ 분야에서 번아웃을 겪는 사람들이 계속해서 늘고 있다.
기업들은 규제 당국과 활동가들로부터 사회에 피해를 주지 않는 AI 제품을 개발하라는 압박을 점점 더 강하게 받자 별도의 인력을 배치해 AI의 설계, 개발, 도입과 관련된 일련의 과정이 우리의 삶과 사회 및 정치에 어떠한 영향을 미치는지 평가하고 있다.
상황이 이렇게 되자 법원은 메타를 비롯한 IT 기업들이 폭력적이고 노골적인 콘텐츠에 노출될 위험이 큰 콘텐츠 모더레이터(content moderators), 즉 온라인상에 유해 콘텐츠를 검열함으로써 플랫폼을 관리하는 사람 등에게 보상과 추가적인 정신 건강 상담을 제공하도록 해왔다.
그러나 콘텐츠 검열을 책임지는 AI 담당 인력은 자신들이 콘텐츠 모더레이션처럼 정신적으로 피폐해지기 쉬운 업무를 하고 있지만 대부분 자기 건강을 스스로 챙겨야 하는 처지라고 토로한다. 그 결과 이 분야 인력들은 정신 건강 악화나 번아웃을 겪는 경우가 많다.
응용 AI 윤리학의 또 다른 선구자이자 트위터의 AI 윤리팀을 이끄는 루맨 차우드허리(Rumman Chowdhury) 역시 이전 직무에서 비슷한 경험을 했다. 그녀는 “한때 번아웃이 정말 심했다. 그저 절망감만 느꼈다”고 말했다.
본지와 인터뷰한 실무자들은 모두 자기 일에 매우 열정적이었다. 열정, 절박감, 현실 문제를 해결한다는 성취감이 그들의 원동력이었다. 하지만 그들에게 적절한 지원이 뒷받침되지 않으면 문제를 해결해야 한다는 개인적 부담감이 지나치게 가중될 위험이 크다.
차우드허리는 쉬어서는 안 될 것 같은 느낌이 들었다고 한다. 그녀는 “회사 내에는 플랫폼에서 사람들을 보호하는 역할을 하는 직원들이 있다. 그들은 휴가를 가거나 24시간 내내 주의를 집중하지 않으면 무언가 나쁜 일이 일어날 수 있다는 불안감에 시달린다”고 말했다.
미첼은 여전히 AI 윤리 분야에서 일하고 있다. 그녀가 하는 일이 꼭 필요한 일이지만, 이 일의 중요성에 비해 실질적인 전문 인력은 소수에 불과하다.
책임 있는 AI 분야에선 앞으로 많은 부분 개선이 필요하다. 보통 이 분야에 종사하는 전문 인력은 조직으로부터의 충분한 지원 없이 방대하고 구조적인 문제를 혼자서 해결해야 한다. 그럼에도 불구하고 온라인에서는 끊임없이 공격적인 비난에 직면하는 것이 현실이다.
AI 윤리학자나 책임 있는 AI의 전문인력들은 AI 알고리즘의 사회적 파급효과를 분석하는 데서부터 책임 있는 전략과 정책 개발, 기술적 문제 해결에 이르기까지 다양한 역할을 수행한다. 이들은 주로 AI로 인한 피해를 완화할 방법을 고안한다. 여기에는 가령 혐오 발언을 퍼뜨리는 알고리즘에서부터 주택 공급과 같은 사회적 혜택을 부당하게 차별 배분하는 알고리즘, 노골적이고 폭력적인 이미지와 말을 퍼뜨리는 AI 같은 사례가 포함된다.
특히 AI 알고리즘에서 사회의 뿌리 깊은 차별을 제거하기 위해서 전문인력이 극도로 유해한 콘텐츠를 포함한 대규모 데이터를 분석해야 하는 경우가 있다. 이를테면 강간 이미지나 인종차별적 언사와 같은 데이터가 그 대상이다.
AI는 인종차별이나 성차별과 같이 우리 사회가 안고 있는 최악의 문제를 반영하며, 문제를 더 악화시키기도 한다. 흑인을 고릴라로 분류하는 얼굴 인식 AI, 당사자의 동의 없이 포르노 영상을 만드는 데 사용되는 딥페이크 프로그램 등이 그런 예들이다. 이러한 문제를 다루는 것은 AI 윤리 업무에 상대적으로 더 흥미를 느끼는 여성, 유색인종 및 기타 소수자 집단에 큰 부담이 된다.
번아웃이 책임 있는 AI 전문인력에서만 나타나는 현상은 아니다. 하지만 본지가 인터뷰한 모든 전문가들은 이들이 분야 특성상 이 문제와 깊은 연관이 있다고 보았다.
미첼은 “이 분야 종사자들은 매일같이 자기 자신을 갉아먹는 일을 하고 있다”며 “차별의 유해성에 예민한 사람들인 만큼 정신적 고통도 더 크다”고 말했다.
그러나 AI의 위험성에 대한 인식이 확산하고 있음에도 불구하고 여전히 윤리학자들은 AI 업계 동료들 사이에서 자신이 맡은 업무의 필요성을 설득하기 위해 투쟁하곤 해야 하는 처지다.
심지어 어떤 사람들은 AI 윤리학자들의 일을 폄하한다. 텍스트를 이미지로 바꿔주는 오픈소스 AI인 스테이블디퓨젼(Stable Diffusion)을 개발한 스타트업 스태빌리티AI(Stability AI)의 에마드 모스타크(Emad Mostaque) CEO는 트위터를 통해 자사의 기술을 둘러싼 윤리적 논쟁이 ‘지나치게 온정적’이라고 언급했다. 모스타크와 스태빌리티AI는 본지의 인터뷰 요청에 응하지 않았다.
AI 윤리학자이자 글로벌AI윤리연구소(Global AI Ethics Institute)의 설립자인 에마뉘엘 고피(Emmanuel Goffi)는 “AI 분야에서 일하는 사람들은 대부분 엔지니어”라며 “그들은 인문학적 감수성이 부족한 편”이라고 말했다.
또한 고피는 기업들이 문제를 기술적인 방식으로 신속히 해결하는 데만 익숙하다는 점을 지적한다. 그는 “그들은 어떻게 하면 윤리적일 수 있는지 파워포인트 몇 장으로 간단히 요약해 주길 기대하지만 윤리적 사고는 더 심오해야 하며, 이를 조직 전체의 기능에 어떻게 적용할지에 대한 숙고가 이루어져야 한다”며 “심리적으로 가장 어려운 점은 매일, 매 순간 자기 소신과 현실 사이에서 타협해야 한다는 점”이라고 강조했다.
미첼은 일반적으로 IT 기업들, 특히 기계학습 분야의 태도가 문제를 악화한다고 비판한다. “AI 윤리 전문가들은 문제 해결에 앞서, 먼저 문제의 가치와 정당성을 스스로 입증해야만 한다. 주변의 지지는커녕 반대를 무릅써야만 하는 상황이다.” 차우드허리는 “윤리가 쓸모없으며 우리가 AI의 진보를 가로막는다고 생각하는 사람들도 있다”고 덧붙였다.
소셜미디어는 문제를 더 악화시킨다. “AI 윤리 연구를 중요하지 않게 생각하는 사람들에 신경 쓰는 것은 의미 없는 일이지만 그들이 우리를 태그하거나 집요하게 공격할 때는 신경 쓰지 않을 수가 없다.” 차우드허리의 생각이다.
맹렬한 속도
AI 연구 속도가 너무 빠르다는 점도 문제다. 방대한 양의 기술 혁신이 빠르게 쏟아지고 있다. 지난 1년 사이만 해도 텍스트로부터 이미지를 생성하는 AI 알고리즘이 공개된 지 불과 일주일 만에 텍스트로 영상을 만드는 훨씬 더 화려한 기술이 발표되었다. 이는 기술적인 면에서 매우 인상적인 진보라고 할 수 있지만, 새로운 기술에 잠재된 해악이 후에 큰 문제를 일으킬 수 있다는 점에서 우려스럽다. 예컨대 텍스트를 이미지로 변환하는 AI는 저작권을 침해할 수 있으며, 만일 AI가 유해한 내용이 가득한 데이터를 기반으로 훈련되었을 경우 예상치 못한 위험한 결과가 초래될 수 있다.
차우드허리는 트위터에서 유행하는 이슈와 같이 최신 화두를 끊임없이 쫓기란 몹시 피곤한 일이라고 생각한다. 윤리학자들이 새로운 혁신이 나올 때마다 그와 관련된 문제를 전부 다룰 수도 없는 노릇이기 때문이다. 그럼에도 그녀는 AI와 관련된 정보의 흐름을 놓쳐서는 안 된다고 믿는다.
차우드허리는 트위터에서 인력이 풍부한 팀으로 일하는 것이 도움이 되었다면서, 적어도 이곳에서는 그녀 혼자 모든 짐을 짊어질 필요는 없었다고 말한다. 그녀는 “일주일간 자리를 비워도 문제가 없을 것을 알고 있다. 이 일을 하는 사람은 나 혼자가 아니기 때문”이라고 말한다.
물론 차우드허리는 책임 있는 AI를 만들기 위해 열정을 가지고 투자를 아끼지 않는 큰 기업에서 일하고 있다. 다만 모두가 그녀처럼 운이 좋은 것은 아니다.
호주의 윤리적 데이터 분석 관련 스타트업 멀티튜드(Multitudes)의 데이터 과학자인 비벡 카티알(Vivek Katial)에 의하면 소규모 AI 스타트업에서 일하는 사람들은 벤처캐피털 투자자들로부터 사업을 성장시켜야 한다는 큰 압박을 받는다. 또 이 투자자들과의 계약에는 책임감 있는 기술을 구축하는 데 필요한 부분이 반영되지 않는 경우가 많다.
카티알은 기술 부문에서 “더 책임 있는 기술을 개발하기 위해 더 많은 비용이 필요하다는 인식”을 벤처 투자자들에게 요구해야 한다고 말한다.
올해 MIT슬론매니지먼트리뷰(MIT Sloan Management Review)와 보스턴컨설팅그룹이 발표한 보고서에서는 많은 기업들이 문제 자체를 인식하지 못한다는 사실이 지적되었다. 질문에 답한 이들 가운데 42%는 AI를 최우선 전략으로 꼽았지만, 19%만이 조직 차원에서 책임 있는 AI 프로그램을 시행했다고 답했다.
굽타는 어떤 사람들은 스스로 AI의 위험을 완화하기 위해 노력하고 있다고 생각하지만, 실질적으로 책임 있는 AI를 위해 적합한 인력을 적절한 위치에 고용하거나 필요한 자원을 투자하지 않는 경우가 많다고 생각한다. 그는 “이것이 사람들이 좌절감과 허탈감을 경험하는 지점”이라고 말했다.
수요 증가
최근 미국 규제 당국이 AI 관련 법을 도입하기 시작함에 따라, 기업들은 조만간 윤리적 AI에 관한 약속 이행 여부를 결정해야 하는 기로에 섰다.
곧 시행을 앞둔 EU의 AI 법 및 AI 책임법은 기업들이 AI로 인한 피해를 완화하기 위해 어떤 대책을 마련했는지 문서화하도록 요구할 예정이다. 미국 뉴욕, 캘리포니아 등의 의원들은 파급력 큰 분야에서의 AI 활용 방안 및 규제에 관한 논의를 벌이고 있다. 10월 초 백악관은 자동화 시스템에 대해 미국 시민이 갖는 5가지 권리를 포함한 AI 권리장전을 공개했다. 이 법안은 연방 기관들이 AI 알고리즘 및 기업들에 대한 면밀한 조사를 확대 시행하는 데 힘을 실어줄 것으로 보인다.
최근 불안한 세계 경제 속에 많은 기업들이 채용을 동결하고 대규모 해고를 단행했다. 하지만 책임 있는 AI팀의 중요성은 오히려 그 어느 때보다 커졌다. 위험하거나 불법적인 AI 시스템을 공개한 기업에 엄청난 벌금을 매기거나, 아예 알고리즘 삭제를 요구하는 사례가 증가하고 있는 것이다. 예를 들어 지난봄 미국 연방무역위원회(US Federal Trade Commission)는 체중 관리 서비스 기업 웨이트워처스(Weight Watchers)가 불법적으로 아동 개인정보를 수집한 것으로 밝혀지자 알고리즘을 삭제하도록 명령했다. 기업 입장에서 AI 알고리즘 개발과 데이터베이스 수집은 상당한 투자에 해당하기 때문에 규제 기관이 알고리즘 완전 삭제를 명령하면 큰 타격을 입을 수밖에 없다.
이처럼 번아웃과 저평가된 처우를 반복해서 겪은 인력들은 이 분야로부터 완전히 떠나게 된다. 이는 당연히 AI 거버넌스와 윤리 연구 전반에 악영향을 끼친다. 조직 내에서 AI로 인한 문제를 해결해 본 경험이 풍부한 사람일수록 더 지칠 수 있다는 점을 감안하면 특히 위험하다.
미첼은 “어느 한 사람이 축적한 전문 지식을 대체하기란 몹시 어렵기 때문에, 전문인력 한 사람의 손실은 전체 조직에 막대한 영향을 끼치게 된다”고 말했다. 2020년 말 구글은 윤리적 AI팀의 공동 대표인 팀닛 게브루(Timnit Gebru)를 해고했으며, 몇 달 뒤 미첼마저 해임했다. 이외에도 불과 몇 개월 만에 책임 있는 AI팀의 여러 구성원들이 이곳을 떠났다.
굽타는 이러한 종류의 두뇌유출이 AI 윤리 발전에 ‘심각한 위험’을 초래한다고 지적했다. 그리고 이 때문에 기업이 프로그램을 유지하기가 점점 더 어려워지고 있다고 분석했다.
구글은 지난해 AI 윤리 전담 연구원을 두 배로 늘리겠다고 발표했다. 하지만 이후 진행 상황에 대해서는 알려진 바가 없다. 본지와의 인터뷰를 통해 구글은 현재 직원들에게 정신건강 회복탄력성과 관련된 훈련을 제공하고 있으며, 일대일 정신건강 상담 프로그램 및 직원들 스스로 할 수 있는 마음챙김 프로그램도 제공하고 있다고 밝혔다. 또한 화상이나 이메일을 통한 정신건강 상담도 지원되고 있다. 구글은 과거 미첼이 경험했던 사실을 묻는 취재에는 답하지 않았다.
메타는 전 직원 및 가족들에게 매년 25회차의 상담 치료를 무료로 제공하는 프로그램에 투자했다고 전했다. 그리고 트위터는 직원 상담, 코칭, 번아웃 예방 교육을 제공한다고 밝혔다. 트위터는 또한 정신건강에 중점을 둔 동료 지원 프로그램을 운영하고 있다. 하지만 AI 윤리 관련 인력을 위해 맞춤화된 지원 방안을 마련한 회사는 없었다.
굽타는 AI 준법감시 및 위험 관리에 대한 수요가 늘면서 기술 경영진이 책임 있는 AI에 충분히 투자하고 있는지 스스로 점검해야 한다고 지적한다.
변화는 맨 꼭대기에서 시작해 하향식으로 번진다. 굽타는 “경영진들이 먼저 투자할 돈, 시간, 자원에 대해 구체적으로 논의하지 않으면 윤리적 AI에 종사하는 사람들은 곧 고꾸라지고 말 것”이라고 예상했다.
굽타에 의하면 책임 있는 AI팀을 성공적으로 운영하기 위해서는 충분한 자원과 기술, 인력이 필요하다. 더불어 여러 단체를 아우르는 상호 소통 및 실질적인 변화를 이끌어내기 위한 추진력도 필수적이라는 게 그의 생각이다.
차우드허리는 “개인의 시간 관리나 일과 삶의 균형 즉 ‘워라밸’에 관련된 지원은 많이 이루어지고 있지만, 전문인력들의 감정적, 심리적 불균형 문제를 개선하기 위한 대책은 미비하다”며 “특히 책임 있는 기술 분야에 종사하는 이들에게 정신건강 지원책이 도움이 될 것”이라고 말했다.
미첼은 “그동안 이러한 작업을 하는 것이 개인에게 미치는 악영향에 대한 인식 자체가 부족했고, 이러한 악영향을 방지하려는 프로그램이 없었던 것은 물론이다”라며 “지금까지 거대 IT기업들은 이러한 현실 문제를 외면하기만 했다”고 꼬집었다.