The AI myth Western lawmakers get wrong

중국은 정말로 AI로 사회적 신용 점수를 부여하나?

기술을 규제하는 방법에 있어 미국과 유럽연합은 다소 차이점이 있지만 한 가지 사안에 대해서는 동의하는 것으로 보인다. AI를 이용한 사회적 신용 점수 시스템은 서구권에서 금지되어야 한다는 것이다.

기술을 규제하는 방법에 있어 미국과 유럽연합은 다소 차이점이 있지만 한 가지 사안에 대해서는 동의하는 것으로 보인다. AI를 이용한 사회적 신용 점수 시스템은 서구권에서 금지되어야 한다는 것이다. 

미국과 유럽연합의 공동성명에 따르면 사회적 신용 점수는 권위주의적 정부들에서 찾아볼 수 있는 관행이다.  특히 중국의 경우 시민들의 신뢰도에 점수를 매기고, 무엇을 훔치거나 대출금을 갚지 않는 등 사회적으로 바람직하지 않은 행동을 할 경우에는 처벌한다.  이 시스템의 실체는 국가가 각 개인에게 책임을 지우는 디스토피아적  점수화(dystopian superscore)로 여겨졌다. 

현재 유럽연합은 AI 법으로 불리는 새로운 법안을 도입하려 논의 중에 있다. 이 법안은 유럽연합의 회원국들과 민간 기업들이 사회적 신용 점수 시스템을 도입하지 못하도록 금지한다. 이것은 사실상 중국의 사회적 신용 점수 시스템을 염두에 둔 규정이었다..

그런데 문제가 하나 생겼다. 독일의 싱크탱크 메르카토르 중국 연구소의 애널리스트 빈센트 브루시(Vincent Brusse)가 이 법안에 대해 “기본적으로 금지할 대상 자체가 없다”고 언급한 것이다.

사실 2014년 무렵 중국은 사회적 신뢰도를 높이고 반대파를 처벌하는 시스템을 구축하려고  6개년 계획을 발표했었다.  그러나 그로부터  8년이 지난 현재에는 그런  사회적 신용 테스트 내용을 성문화하고 미래 시행의 가이드라인을 구축하기 위한 초안 법안만이 나온 상태이다. 

중국에서는 논란이 될 만한 실험들이 여러 번 진행된 바 있다. 2013년 중국의 소도시 룽청시(荣成市)에서 실행되었던 실험이 그 사례이다. 실험 대상이 된 주민들은 1,000점의 기본적 신용 점수를 부여받았다. 이 점수는 어떤 행동을 하느냐에  따라서 높아지거나 또는 낮아질 수 있었다. 그러나 지금은 언제든지 실험 참여를 그만둘 수 있고, 중국 내 지역 정부들은 몇몇 논란이 될 만한 기준도 삭제한 상태다.

이 실험들은 그다지 호응을 얻지 못했었고, 현재는 중국 시민들에게  적용되지도 않고 있다. 사람들을 샅샅이 관찰해서 등급을 매기는 사회적 신용 점수 시스템은 중국 어디에도 없다.   

글쓴이의 동료 양 쯔이(Zeyi Yang)는 “실제로 그런 무서운 감시 시스템은 존재하지 않는다. 게다가 중국 중앙 정부는 이 시스템을 구축하려는 의지조차 없어 보인다”고 설명했다. 

현재 중국에 구현되어 있는 것은 굉장히 낮은 수준의 기술이다. 양 쯔이는 “금융 및 신용 산업을 규제하고, 정부 기관들이 서로의 데이터를 공유할 수 있도록 하며, 국가가 승인하는 도덕적 가치를 촉진시키기 위한 몇 가지 시도들이 있었을 뿐이다”고 항변했다. 베이징에 위치한 컨설팅 업체 트리비움 차이나(Trivium China)의 켄드라 셰퍼(Kendra Schaefer)는 미국 정부를 대상으로 이 주제에 대한 보고서를 작성한 바 있다. 보고서에 따르면 중국에서 데이터 수집이 사람의 개입 없이 자동화된 제재로 이어진 사례는 한 건도 없었다. 사우스 차이나 모닝포스트(The South China Morning Post )는 룽청시에서 “정보 수집가”들이 마을을 돌아다니며 사람들의 일탈적 행동을 기록하는 모습을 발견했지만 그것은 AI가 아닌 사람의 관찰이었다.

중국이 AI를 사회적 신용 점수를 부여하기 위해 사용한다는 억측은 중국 알리바바가 개발했던 쎄서미 크레딧(Sesame Credit) 프로그램에서 시작된 것으로 보인다.  빈센트 브루시에 따르면 그 개발 목적은  대다수의 중국인들이 신용카드를 갖고 있지 않았기 때문에 고객 데이터를 활용해 개인별로 신용도를 평가하려는 것이었다. 그러나 그 시도가 사회적 신용 점수 시스템과 결합하자 오해가 널리 퍼지게 되었다. 그 실체는 입에서 입으로 전달되는 과정에서 부풀려졌다.  

미국과 유럽의 정치인들은 사회적 신용 점수 시스템이 권위주의 정권에서 비롯된 문제라고 말하고 있지만, 이미 서구에서는 사람들을 서열화하고 처벌하는 시스템이 시행되고 있다는 것이다. 이 점은 아이러니라고 할 수 있다. 서구에서는 이미 의사결정의 자동화를 위해 개발된 알고리즘이 대량으로 출시되고 있고, 사람들이 집이나 직장을 구하고, 기초 수급 요청을 거절하는 수단으로 활용되고 있다. 

예를 들어 네덜란드 암스테르담 정부는 빈민촌 출신의 젊은이들을 범죄자가 될 수 있는 확률에 따라 등급을 나누는 알고리즘을 사용하고 있다. 정부 관료들은  범죄를 예방하고, 더 나은 혜택을 제공하고, 선별된 지원을 하는데 도움을 주려는 목적에서 알고리즘을 도입했다고 주장한다. 

그러나 인권 단체들은 이러한  사회적 신용 점수 시스템이 빈곤층에 대한 낙인찍기(stigmatization) 와 차별을 더 키우고 있다고 경고한다. 알고리즘이 뽑은  명단에 오른 젊은이들은 경찰 조사를 더 자주 받고, 정부 기관의  더 많은 방문을 받고, 학교나 사회 복지사들의 엄격한 관리 아래 생활해야만 한다. 

실제로 존재하지도 않는 디스토피아적인 알고리즘을 반대하기는 쉽다. 그러나 유럽연합과 미국의 입법자들이 AI 거버넌스(AI Governance)의 이해하려면 우선 국내의 사안에 더 관심을 기울여야만 할 것이다. 현재 미국에는 알고리즘적 의사 결정에 대항하여 각 개인에게 기본적 보호조치를 제공하는 연방 차원의  개인정보 보호법률조차 없다. 

또한, 정부 차원에서 각 개인의 삶에 대한 의사결정을 내리는 AI를 활용하는 기관이나 기업에게 투명하고 철저한 감시를 시행할 필요가 있다. 감시를 통해 유쾌하지 않은 사실이 드러날 수도 있겠지만, 오히려 이 절차를 거침으로써 AI 활용에 대한 대외적 이미지가 더욱 좋아질 수 있을 것이다. 

딥러닝

마인크래프트 게임 비디오로 70,000시간동안 훈련을 마친 봇이 AI의 미래를 열 것이다.

오픈AI(OpenAI)는 어떤 AI보다 마인크래프트 게임을 능숙하게 하기 위해 7만 시간에 달하는 게임 플레이 영상을 시청하는 AI를 내놓았다.  이 AI는 모방학습( imitation learning)으로 불리는 강력한 신기술로 돌파구를 찾았기 때문에 가능했다. 인간이 먼저 수행한 다양한 작업의 비디오를 시청하도록 하여 기계를 학습시킨다.  유튜브와 같은 사이트가 방대한 AI 훈련용 데이터 소스가 될 수 있는 가능성이 열렸다. 

모방학습은 AI가 로봇 팔을 제어하고, 차를 운전하고, 웹사이트를 탐색하도록 훈련하는 데 활용될 수 있다. 메타의 수석 AI 사이언티스트인 얀 르쿤(Yann LeCun)을 비롯한 일부 연구자들은AI가 영상을 시청함으로써 인간 수준의 지적능력을 가질 수 있다고 생각한다. 윌 더글라스 헤븐의 글을 여기서 읽어보자. 

비트와 바이트

메타가 개발한 게임 AI 시세로는 인간처럼 동맹을 맺거나 끊을 수 있다.

디플로머시(Diplomacy)는 7명의 플레이어가 지도 위에서 조각들을 움직여 유럽을 지배하기 위해 경쟁하는 인기 전략 게임이다. 이 게임에서 플레이어들은 서로 이야기를 나누고 허세를 부릴 수도 있다. 최근 시세로(Cicero)라고 불리는 메타의 새로운 AI가 플레이어들을 속여 게임에서 우승한 것으로 나타났다. 

이는 도로정체에서 경로를 찾거나 계약을 협상하는 등 복잡한 문제에 도움을 주는 AI 개발에 있어 큰 진전으로 볼 수 있다. 그러나 AI가 사람을 쉽게 속일 수 있다는 사실이 불안감을 주는 것은 어쩔 수 없는 노릇이다. (참고기사)

AI 언어 프로그램을 학습시키기 위한 데이터가 부족할 수 있다.

사상 초유의 거대한 AI 모델을 개발하는 것이 요즘의 추세다. 그러나 그 AI를 훈련시키기 위한 데이터 세트도 더 커질 수밖에 없다. AI 연구 및 예측 기관인 에폭(Epoch)의 연구자들의 논문에 따르면 2026년이 되면 훈련에 적합한 데이터들이 고갈될 가능성이 있다. AI 업계는 현재 보유한 리소스를 이용하여 더 많은 결과물을 만들어내는 방법을 생각해 내야 할 것이다. (참고기사)

스테이블 디퓨전(Stable Diffusion) 2.0 버전이 출시되었다.

오픈소스 라이선스로 사용 가능한  텍스트-이미지 AI 모델 스테이블 디퓨전(Stable Diffusion)은 상당한 수정작업을 거쳐 2.0 버전을 내놓았다.  스테이블 디퓨전이 생성하는 이미지들은 예전보다 훨씬 세련되고 마치 실제로 그린 것처럼 보인다. 사람의 손 모양도 쉽게 구현해낸다. 첫 버전이 불과 8월에 출시된 것을 감안한다면 스테이블 디퓨전의 발전 속도는 놀라울 정도다. 내년에도 더 큰 발전을 기대해 볼 만 하다. 

미리보기 2회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.