Five ways to make AI a greater force for good in 2021

더 나은 AI를 만들기 위한 5가지 제안

AI가 미치는 영향력이 그 어느 때보다 커졌다. 사람들의 관심도 갈수록 높아지고 있다. 이제 관심을 실행으로 옮길 때다.

1년 전, 2020년에 어떤 일들이 생길지 전혀 알지 못한 채 기자는 당시 AI 커뮤니티가 처했던 결정적 순간들을 되돌아 보는 기사를 쓴 적 있다. 한해 전인 2018년에는 자율주행 차량 충돌 사고, 차별적 채용 관리 도구 등 굵직한 자동화 실패 사례가 여러 건 있었다. 이에 따라 2019년에는 그 어느 때보다도 AI가 화두가 되었다. 그러나 아직 갈 길이 멀다. 구체적 조치를 취할 필요가 있었다. 두 달 후, 코로나 바이러스로 온 세상은 셧다운 상태에 들어갔다.

사회적 거리두기와 모든 것이 원격으로 수행되는 유례 없는 현실 속에서, 알고리즘으로 인한 피해(Algorithmic Harm)와 관련된 논의가 활발해졌다. 하이어뷰(HireVue)의 얼굴 스캐닝 알고리즘과 작업장 감시 도구 같은 시스템은 어느덧 주류가 되어 갔다. 학생들을 관리하고 평가하는 도구가 실시간으로 작동 중이었다. 지난 8월, 대입 시험을 앞두고 영국 정부의 알고리즘 기반 평가가 대참사로 끝나자, 수백 명의 학생들이 런던에 모여 “알고리즘 꺼져라”를 외쳤다. 몇 달 후 스탠포드대학 시위대 중 한 명이 다른 사건 때문에 또 이 구호를 외쳤을 때, ‘설명가능한 AI’를 연구하는 뎁 라지(Deb Raji)는 “이 구호는 2020년의 슬로건”이라는 트윗을 올렸다.

물론 더 많은 일들이 2020년에 있었다. 조지 플로이드 사망 사건으로 경찰의 무자비함을 규탄하는 시위가 세계적으로 일어났다. 이후 아마존, 마이크로소프트, IBM은 법 집행 당국에 얼굴 인식 제품 판매를 금지하거나 중단했다. 이 성과는 연구원과 시민 운동가들이 3사의 기술이 비효과적이고 편파적임을 입증하기 위해 2년 동안 벌인 투쟁이 최고조에 달했을 때 나온 결과였다. 작지만 주목할만한 변화도 있었다. 가장 유명한 AI 연구 컨퍼런스 중 하나인 신경정보처리시스템학회(NeurIPS)는 처음으로 연구원들에게 논문을 제출할 때 윤리 성명서를 첨부할 것을 권고했다.

2021년 초에 이르러, 대중과 규제기관의 관심은 그 어느 때보다도 더 AI의 영향력에 집중되고 있다. 올해 AI가 더욱 발전하기 위해 필요하다고 생각되는 5가지 사항을 적어보았다.

연구에 대한 기업 입김 축소

IT 대기업들은 AI 연구 방향에 대해 누구보다 강한 통제력을 갖고 있다. 이로 인해 관련 분야가 전반적으로 점점 더 빅데이터와 대형 모델로 전환되었고, 여러 결과를 초래했다. AI가 발전함에 따라 기후 영향이 증가하고, 자원이 한정된 연구실은 연구에 참여하기 어려워졌다. 다른 연구 접근법을 인정하지 않음으로써 과학 연구 열기가 사그러든다. 구글이 팀니트 게브루(Timnit Gebru)를 해고한 사실에서 보듯, 대기업은 AI가 미칠 다른 부정적 영향들에 대해 조사하는 활동을 제한할 것이다.

기업의 영향력은 결국 재원과 대안적 연구 지원 자금 부족의 문제로 귀결된다. 작년 오픈AI(OpenAI)에 대한 소개 기사에 썼듯이, 초창기 오픈AI는 독립적이고 부유한 후원자에게만 의존하려고 했다. 그러나 이 계획은 지속 불가능했고, 4년 후 오픈AI는 마이크로소프트와 투자 계약을 체결했다. 여러 국가가 동참하여 연구원들에게 국방 연구와 무관한 자금 지원 방안을 제공할 필요가 있다. 완벽한 해결책은 아니겠지만, 첫걸음은 되지 않을까. 정부는 결과에 집착하지 말고 국민에게 관심을 기울여야 한다.

상식을 지닌 인공지능에 대한 관심

더 크고 더 나쁜 모델에 대한 지나친 관심으로 AI 연구의 핵심 목표가 무색해졌다. AI 연구의 목표 중 하나는 단순 패턴 매칭에 그치지 않고, 실제로 의미를 이해하는 지능적 기계를 개발하는 것이다. 이러한 경향이 발생한 주 원인은 기업의 영향력 때문이지만, 다른 이유도 있다. 학술 대회와 동료 평가 학술지는 최고 수준의 기술 구현에 중점을 둔다. 그러나 현재 성과를 측정하는 기준은 앞선 기술보다는 방대한 데이터로 훈련된 대형 모델에 유리한 경우가 많다.

대형 모델은 결코 일반적 지능에 도달할 수 없다는 의미가 아니다. 그건 아직 아무도 모른다. 그러나 더 많은 투자를 할 가치가 있는 다른 연구 분야들이 있다. 어떤 전문가는 상징적 지식 시스템과 딥러닝을 결합한 뉴로심볼릭 AI (Neurosymbolic AI)에 기대를 걸었다. 또 어떤 전문가는 아주 적은 사례로 학습이 가능한 아이들의 능력에 영감을 받아, 훨씬 더 적은 데이터를 사용하는 확률론적 기법을 실험 중이다.

2021년에는 AI 분야가 예측보다 이해력에 우선순위를 두도록 인센티브를 재조정했으면 한다. 이렇게 되면 기술적으로 더 강력한 시스템이 제공될 뿐만 아니라 사회적으로도 크나큰 의미가 있다. 예를 들어, 현재의 딥러닝 시스템은 조작되기 쉽기 때문에 자율주행 차량의 안전성이나 자율 무기의 위험성에 대한 우려가 제기된다. 시스템이 상관 관계와 인과 관계를 구별할 수 없는 것도 알고리즘이 지닌 한계이다.

소외 계층 연구자 위상 강화

알고리즘이 개발자의 가치와 관점을 체계적으로 체화하는 것이라면, 알고리즘 개발 시점에서부터 다양한 범위의 인간다움이 고루 반영되어야 한다. 2019년 12월 NeurIPS에 참석해 좋은 사례를 발견할 수 있었다. 그 해, 기록적인 숫자의 여성 및 소수 집단 발표자와 참석자들을 보고 분위기가 눈에 띄게 바뀌는 것을 느꼈다. AI가 사회에 미치는 파장이 그 어느 때보다도 화두가 되었다.

당시 나는 AI 커뮤니티의 진전에 찬사를 보냈다. 하지만 구글이 업계에서 손꼽히는 흑인 여성 인재 게브루를 대하는 태도를 보고 아직 갈 길이 한참 멀다는 현실을 깨달았다. 개인의 살아있는 경험을 연구에 적용할 수 없다면, 숫자만 많다고 해서 무슨 소용이 있겠는가. 그러나 다행히도 상황은 달라지고 있다. 게브루 해고 사건이 일촉즉발의 국면으로 치달으면서 관련 업계는 중요한 자성의 순간을 맞았다. 이 모멘텀이 지속적이고 체계적인 변화로 이어지기를 바란다.

AI의 영향을 더 크게 받는 커뮤니티에 더 많은 관심을

고려해야 할 대상이 또 있다. 작년, 가장 흥미진진했던 주제는 참여 머신러닝(Participatory Machine Learning)의 출현이었다. 이로 인해 결국 알고리즘의 적용 대상이 되는 사람들을 포용하도록 AI 개발 절차가 개선되었다.

7월, 이같은 접근 방식과 관련된 첫 번째 컨퍼런스 워크샵에서 다양한 아이디어가 나왔다. 제안된 아이디어 중에는 관련 커뮤니티의 피드백을 모으기 위한 새로운 지배구조도 포함되었다. 여기에는 사람들에게 정보를 제공하고 참여를 이끄는 새로운 방식의 인공지능 모델 감사 방법, 사용자가 설정을 더 잘 제어할 수 있게 AI 시스템을 재설계하도록 하는 방안 등도 포함되었다.

2021년에는 이러한 아이디어가 본격적으로 연구되고 수용되기를 바란다. 페이스북은 이미 출발선에 섰다. 페이스북이 설립한 외부 감사 위원회가 페이스북 플랫폼의 콘텐츠 조정 (contents moderation) 정책에 유의미한 변화를 만들 수 있다면, 이 같은 구조는 플랫폼 기업에 대한 참고할 만한 피드백 방식이 될 전망이다.

규제가 필요하다

지금까지 풀뿌리 운동이 알고리즘으로 인한 피해를 완화하고, 대기업에 책임을 묻기 위한 움직임을 주도했다. 그러나 더 장기적 보호 장치를 마련하는 임무는 국내 및 국제 규제 기관의 몫이다. 다행스러운 소식은 세계의 국회의원들이 현재 이 문제를 예의 주시하고 있고, 관련 법이 입안 단계라는 점이다. 미국 의원들은 이미 얼굴 인식, AI 편향성, 딥페이크와 관련된 법안을 도입했다. 일부 의원들은 12월 구글에 서한을 보내 이 법안을 지속 추진하겠다는 입장을 표명했다.

2021년에는 관련 법안이 통과되었으면 한다. 지금은 지난 몇 년 간의 일을 체계적으로 정리하고, 자율 규제라는 허구에서 벗어나야 할 시기이다.

미리보기 3회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.