This group of tech firms just signed up to a safer metaverse

더 안전한 메타버스 구축을 위해 동참한 기업들

인터넷의 미래가 될 것으로 보이는 메타버스가 현재 인터넷보다 더 나은 공간이 될 수 있을까? ‘오아시스 컨소시엄’은 더 안전하고 윤리적인 메타버스를 위해 움직이고자 한다. 쉽지 않겠지만 의미 있는 행보라고 할 수 있다.

인터넷은 때때로 인류가 가진 최악의 측면을 보여주는 바닥 없는 구덩이처럼 느껴지기도 한다. 우리가 일을 하거나 즐거운 시간을 보내며 머물 디지털 세계가 될 ‘메타버스(metaverse)’ 역시 인터넷보다 더 나은 공간이 될 것으로 보이는 증거가 거의 없다. 지난달에 내가 보도했던 내용처럼, 메타(Meta)의 가상 소셜 플랫폼 호라이즌 월드(Horizon Worlds)에서는 이미 어떤 베타 테스터가 성추행을 당했다고 밝히기도 했다.

티파니 싱위 왕(Tiffany Xingyu Wang)은 자신에게 이런 상황에 대한 해결책이 있다고 생각한다. 그 해결책이란 왕이 2020년 8월에 창설한 비영리 단체 ‘오아시스 컨소시엄(Oasis Consortium, 이하 ‘오아시스’)’이다. 오아시스는 ‘미래 세대가 온라인의 혐오와 해악에서 벗어나 서로 소통할 수 있고, 함께 만들어내며 존재할 수 있다는 믿음을 가질 만한 윤리적인 인터넷’을 꿈꾸는 게임 회사들과 온라인 회사들의 모임이다. 왕이 오아시스를 창설한 2020년 8월은 페이스북(Facebook)이 회사명을 ‘메타’로 변경한다고 발표하면서 회사의 관심이 자사의 소셜미디어 플랫폼인 ‘페이스북’에서 자체적인 메타버스 구축 계획으로 옮겨갔다는 것을 드러낸 때보다 일 년도 더 전이었다. 

그렇다면 오아시스는 어떤 방법으로 자신들의 목표를 실현하려는 것일까? 왕은 기술 기업들이 자율적으로 자신들을 규제할 수 있도록 돕는 방식을 통해 더 안전하고 더 나은 메타버스를 만들 수 있다고 생각한다.

이번 2022년 1월 초에 오아시스는 ‘이용자 안전 기준(User Safety Standards)’이라는 지침을 배포했다. 여기에는 ‘신뢰와 안전’ 담당자 고용, 콘텐츠 관리(content moderation) 기술 사용, 유해성과의 싸움에 최신 연구 통합 등의 방법이 포함됐다. 오아시스에 동참한 기업들은 이 지침에서 제시한 목표를 달성하기 위해 노력하겠다고 약속했다.

지난 15년 동안 인공지능(AI)과 콘텐츠 관리 분야에서 일했던 왕은 “나는 인터넷과 메타버스에 새로운 선택지를 주고 싶다. 메타버스가 생존하려면 ‘안전’이 보장되어야 한다”고 밝혔다.

그녀의 주장은 옳다. 메타버스 기술의 성공 여부는 이용자들이 다치거나 상처받지 않도록 보장할 능력에 달려있다고 할 수 있다. 하지만 실리콘밸리의 기술 기업들이 메타버스에서 자율적으로 스스로를 규제하겠다는 약속을 우리가 정말 믿을 수 있는 것일까?

더 안전한 메타버스를 위한 청사진

오아시스에 동참한 회사에는 게임 플랫폼 로블록스(Roblox), 데이팅 회사 그라인더(Grindr), 비디오게임 대기업 라이엇 게임즈(Riot Games) 등이 있다. 이들이 제공하는 서비스의 이용자들은 수억 명에 달하며, 그들 중 상당수는 이미 적극적으로 가상 공간을 이용하고 있다.

그러나 왕은 미래 메타버스에서 가장 큰 역할을 담당할 것으로 보이는 ‘메타’와는 아직 대화를 나누지 않았다. 왕의 전략은 ‘오아시스가 메타버스를 더 나은 곳으로 만드는 데 앞장서면서 의미 있는 변화를 만들어내는 모습을 보여줄 수 있을 때’ 거대 기술 기업에 접근하는 것이다. (메타버스에서 안전을 확보할 계획에 관해 물었을 때 메타는 내게 문서 두 개를 보여줬다. 하나는 ‘메타버스를 책임감 있게 건설’하기 위해 메타가 어떤 단체 및 개인들과 협력하고 있는지 자세히 설명한 보도자료였으며, 또 하나는 가상현실(VR) 공간을 안전하게 유지하는 방법에 관한 블로그 포스트였다. 두 문서는 모두 메타의 최고기술책임자(CTO) 앤드류 보스워스(Andrew Bosworth)가 작성했다.)

왕은 투명성 확보를 위해 구상 중인 몇 가지 방법을 제시했다. 하나는 기업이 ‘신뢰와 안전’을 유지하는 측면에서 어느 정도 위치에 있는지 대중이 알 수 있도록 ‘등급 시스템’을 만드는 것이다. 이는 음식점들이 건강과 청결 기준을 준수하고 있음을 보여주기 위해 시에서 받은 등급을 공개하는 시스템과 유사하다. 또 다른 방법은 오아시스의 회원 기업들이 ‘신뢰와 안전 담당자’를 고용하게 하는 것이다. 신뢰와 안전 담당자는 큰 기업일수록 찾아보기 쉬운 직책이기는 하지만, 이 직무 담당자들이 반드시 준수해야 할 어떤 합의된 기준이 없다는 점이 문제라고 왕은 설명했다.

그러나 오아시스가 갖고 있는 계획 중 상당 부분은 이상적인 바람으로 보인다. 그러한 이상적인 계획 중 하나는 괴롭힘이나 혐오 발언을 감지하기 위해 ‘머신러닝(machine learning)’을 사용하자는 제안이다. MIT 테크놀로지 리뷰의 캐런 하오(Karen Hao)가 작년에 보도했듯이, AI 모델은 도리어 혐오 발언을 확산시키거나 혐오 발언의 수위가 높아지는 데 일조하기도 한다. 그런데도 왕은 콘텐츠 관리 도구로 AI를 활용하자고 하는 오아시스의 제안을 옹호했다. 그녀는 “AI는 데이터만큼 좋은 수단”이라고 말하며, “플랫폼들은 콘텐츠 관리에 각기 다른 방법을 사용하지만, 모두 더 정확하고 반응 속도가 빠르며 안전한 방법을 찾기 위해 노력하고 있다”고 설명했다.

오아시스가 발표한 ‘이용자 안전 기준’은 오아시스의 미래 목표를 설명하는 7페이지짜리 문서로, 문서 대부분은 마치 기업의 이념이나 목표를 설명하고 있는 것처럼 보인다. 왕은 처음 몇 달 동안 이러한 목표들을 세우는 데 도움을 줄 자문단 구성에 집중해왔다고 밝혔다.

문서에 콘텐츠 관리 전략을 비롯한 계획의 다른 요소들은 모호하게 설명되어 있을 뿐이다. 왕은 기업들이 다양한 인종이나 성별로 구성된 콘텐츠 관리자들을 고용해서 남성이 아니라고 자신을 정의하는 이들이나 유색인종에 대한 괴롭힘을 이해하고 이에 맞서 싸울 수 있기를 바란다고 말했다. 그러나 그녀의 계획에는 그러한 목표를 달성하기 위한 자세한 방법들이 존재하지 않는다.

오아시스는 또한 회원사들이 서비스 이용자들이 모욕이나 괴롭힘을 당하고 있는 상황에 관한 데이터를 서로 공유하기를 기대한다. 이러한 데이터가 상습적인 가해자들을 파악하는 데 중요하기 때문이다. 왕은 오아시스에 동참한 기술 기업들이 비영리 단체, 정부 기관, 법 집행기관 등과 협력하여 안전 정책을 만드는 데 도움을 줄 것이라고 밝혔다. 그녀는 또한 오아시스에 ‘법 집행 대응팀’을 꾸리려고 하는데, 이 팀의 직무는 누군가가 다른 이용자를 괴롭히거나 모욕하는 상황이 발생했을 때 경찰에 알리는 것이다. 그러나 이 대응팀과 법 집행기관의 협력이 현재 이미 존재하는 기업 내 대응팀이나 법 집행기관의 협력과 ‘어떤 부분’이 다른지에 대해서는 자세히 알 수 없다.

프라이버시와 안전 사이에서 균형잡기

이처럼 구체적인 내용이 부족하기는 하지만, 나와 이야기를 나눈 전문가들은 오아시스의 안전 기준 문서를 그래도 괜찮은 첫걸음으로 생각한다고 밝혔다. 기술과 인권을 전문으로 하는 브리턴 헬러(Brittan Heller) 변호사는 “오아시스가 자신들의 한계와 시스템을 잘 아는 이들과 협력하면서 기업이 자율적으로 스스로를 규제할 방법을 모색하고 있는 것은 좋은 일”이라고 설명했다.

물론 기술 기업들이 이런 식으로 협력하는 것이 처음 있는 일은 아니다. 2017년에 일부 기술 기업들은 ‘대테러 글로벌 인터넷 포럼(Global Internet Forum to Counter Terrorism, GIFCT)’을 통해 자유롭게 정보를 교환하는 데 동의했다. 현재 GIFCT는 독립적인 조직으로 남아있으며, GIFCT에 동참한 기업들은 자율적인 규제를 시행하고 있다.

멜버른대학교의 전산정보시스템학과 소속 연구자 루시 스패로(Lucy Sparrow)는 기업들이 스스로 어떤 언어를 생각해내거나 제삼자가 그런 일을 할 때까지 기다리는 대신에 오아시스가 기업들이 동참하여 노력할 수 있는 방법을 제시했다고 평가했다.

그러면서 스패로는 오아시스가 추진하는 것처럼 처음부터 윤리를 중요한 가치로 도입하는 것이 감탄할 만한 일이며, 멀티플레이어 게임 시스템에 대한 자신의 연구를 보면 오아시스의 그러한 태도가 변화를 가져올 것임을 알 수 있다고 덧붙였다. 그녀는 “윤리는 중요하지 않은 것으로 여겨지는 일이 많지만, 오아시스는 처음부터 윤리에 관해 생각할 것을 권장하고 있다”고 설명했다.

그러나 헬러는 윤리적인 설계만으로는 충분하지 않을 수 있다고도 말했다. 그녀는 기술 기업들이 서비스 약관을 재편해야 한다고 제안했다. 기술 기업들은 서비스 약관을 이용해 법적 전문지식이 없는 소비자들을 이용하고 있다고 강하게 비판받아왔다.

스패로는 자신도 기술 기업들이 소비자의 이익을 위해 행동하리라고 쉽게 믿을 수 없다고 말하며 헬러의 의견에 동의했다. 그러면서 이렇게 말했다. “이것은 두 가지 질문을 제기한다. 하나는 ‘자본으로 움직이는 기업들이 이용자의 안전을 위해 스스로 노력할 것이라는 말을 우리가 얼마나 신뢰할 수 있을까?’이며, 두 번째는, 가상 세계에서 우리의 삶에 대해 기술 기업이 어느 정도의 통제력을 가지기를 바라는가?’이다.”

이 질문들에 답하기는 쉽지 않다. 이용자들이 갖는 ‘안전’과 ‘프라이버시’라는 권리가 서로 갈등 관계에 있을 수 있기 때문이다.

예를 들어, 오아시스의 안전 기준에는 이용자가 괴롭힘을 당했을 때 법 집행기관에 소송을 제기하는 것에 관한 지침도 포함되어 있다. 현재는 개인이 신고하기를 원한다고 해도 쉽지 않을 때가 많다. 플랫폼들이 프라이버시 문제로 인해 이용자에 관한 기록을 남기지 않는 경우가 많기 때문이다.

기록을 남기고 공유하는 것이 가능해진다면 상습적인 가해자들을 처벌할 수 있게 될 것이다. 현재 이러한 가해자들은 다양한 플랫폼에서 타인을 괴롭히거나 모욕하는 행위를 저지르고도 그냥 빠져나갈 수 있다. 플랫폼들이 어떤 이용자가 문제 행위를 했는지에 관해 서로 소통하고 있지 않기 때문이다. 그러나 헬러는 오아시스의 바람이 이론적으로는 훌륭한 생각일 수 있지만 실제로 실행하기는 어려울 것이라고 말하면서, 기업들이 서비스 약관에 따라 이용자 정보를 공개할 수 없기 때문이라고 설명했다.

헬러는 이와 관련해 이러한 질문들을 던졌다. “이러한 데이터를 익명으로 유지하면서도 효과적인 공유를 가능하게 할 수는 없을까? 사용자 데이터를 어느 정도까지 공유할 수 있을까? 어떻게 하면 정보 공유를 투명하게 하면서 문제가 있는 이용자를 법적으로 처벌할 수 있는 과정을 만들 수 있을까? 그러한 결정을 내릴 권한은 누가 가져야 할까?”

그녀는 “지금까지는 다양한 플랫폼에서 잘못을 저지른 이용자들이 있다고 하더라도, 폭력이나 모욕, 또는 그에 상응하는 나쁜 행위로 서비스 약관을 침해한 이용자들에 관한 정보를 기업들이 다른 기업들과 공유한 선례가 없다”고 덧붙였다.

인간이 더 나은 콘텐츠 관리를 해낼 수 있다면 그런 나쁜 행위를 뿌리 뽑을 수 있을지도 모른다. 그러나 헬러는 오아시스가 텍스트 기반의 매체와 조금 더 가상현실에 가까운 매체 사이에서 콘텐츠 관리를 어떻게 표준화하려는 계획인지 확실히 알 수 없다고 밝혔다. 게다가 메타버스에서 콘텐츠를 관리하는 것에는 그 나름대로 다른 문제들이 동반될 것이다.

헬러는 “소셜미디어에서 혐오 발언을 감지하는 AI 기반의 콘텐츠 관리는 주로 텍스트를 바탕으로 한다”고 말하면서, “가상현실에서 콘텐츠를 관리하려면 텍스트가 아니라 주로 행동을 추적하고 관찰해야 할 것이다. 그러나 현재 가상현실이나 증강현실 같은 확장현실(XR)에서 사용되는 보고 메커니즘은 효과가 전혀 없을 때가 많다. 따라서 현시점에서 가상현실의 콘텐츠 관리는 AI로 자동화할 수 없다”고 밝혔다.

이러한 상황으로 인해 괴롭힘이나 모욕 행위가 발생했을 때 신고하는 부담은 개인 이용자들이 지게 된다. 메타에서 성희롱을 당했던 피해자도 그랬다. 게다가 음성과 영상은 기록에 남지 않는 경우가 많기 때문에 피해의 증거를 수집하기도 쉽지 않다. 헬러는 음성을 기록하는 플랫폼 중 대부분도 단편적인 기록만을 남겨놓고 있기 때문에, 이러한 기록으로는 피해 상황을 어느 정도 파악할 수 있기는 하더라도 이해에 어려움이 생기는 경우도 많다고 설명했다.

왕은 ‘안전 자문단’의 도움으로 오아시스의 이용자 안전 기준을 만들었다고 강조했지만, 안전 자문단이란 사실 오아시스의 회원 기업들로 이루어져 있다. 이것 역시 헬러와 스패로가 불안감을 느낀 지점이다. 인터넷 역사상 기업들이 소비자의 건강이나 안전을 보호하는 부분에서 좋은 성과를 낸 적이 단 한 번도 없기 때문이다. 지금까지도 성과가 없었는데, 이번에는 다를 것이라고 어떻게 기대할 수 있겠는가?

스패로는 기대감을 가질 수 없다고 생각한다. 그녀는 “중요한 것은 시스템을 시행해서 정의를 실현하거나, 용납할 수 없는 행위를 했을 때 어떤 결과가 뒤따르리라는 신호를 주는 것”이라고 설명했다. 그녀의 말은 안전 기준을 설정하고 시행하는 데 오아시스 회원 기업들만 동참하는 것이 아니라, 다른 이해당사자들과 일반 시민들까지 참여시키는 일종의 ‘참여적 거버넌스’를 의미한다.

여기서 한 가지는 확실하다. 메타버스에서 안전을 보장하려면 우리를 지켜주겠다고 약속하는 기술 기업들의 모임을 넘어서는 무언가가 필요할지도 모른다는 것이다.

미리보기 3회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.