
AI 감정인식 기술을 규제하려는 이유
최근 필자는 뉴욕시에서 가장 좋아하는 장소인 공공 도서관에 가서 영국의 유명한 과학자 찰스 다윈(Charles Darwin)이 남긴 수백 통의 편지, 저서, 사색한 내용 등을 살펴보았다. 다윈은 글쓰기를 좋아했고, 그가 남긴 글 페이지마다 그의 호기심과 뛰어난 관찰력이 생생하게 살아 숨 쉬고 있었다.
다윈은 진화론 외에도 사람과 동물의 표정과 감정에 대해 연구했다. 감정이 실제로 얼마나 과학적이고 보편적이며 예측 가능한지에 대한 글을 남기기도 했고, 그가 그린 과장된 표정의 인물 스케치가 이 도서관에 전시되기도 했다.
이러한 인간의 감정이라는 주제를 보면서 떠오르는 내용이 있었다.
최근 챗GPT, 범용 인공지능(AGI), 로봇이 인간의 일자리를 빼앗을 것이라는 전망 등에 모두가 격분하고 있는 상황에서 규제당국은 인공지능(AI)과 감정인식(emotion recognition)에 대한 경계를 강화하고 있다.
앞서 언급한 다윈과는 거리가 멀게 느껴지는 ‘감정인식’은 영상, 얼굴 사진, 오디오 녹음 등에 대한 AI 분석을 통해 사람의 감정이나 마음 상태를 파악하려는 시도이다.
아이디어 자체는 간단하다. 예를 들어 AI 모델이 입을 벌리고, 눈을 가늘게 뜨고, 고개는 뒤로 젖힌 채 볼이 수축하는 모습을 보면, 이를 웃음으로 인식하여 대상이 행복하다는 결론을 내릴 수 있다는 것이다.
하지만 실제로 감정인식은 그렇게 간단하지 않다. 게다가 일부에서는 감정인식이 AI가 종종 만들어내는 일종의 ‘사이비 과학’을 보여주는 위험한 사례라고 주장하기도 한다.
유럽디지털권리(European Digital Rights)와 액세스나우(Access Now) 같은 일부 개인정보 및 인권 보호 단체에서는 감정인식에 대한 전면적인 금지를 요구하고 있다. 또한 6월에 유럽 의회에서 승인된 유럽연합 AI법(EU AI Act)은 전면적인 금지는 아니어도, 치안, 국경 관리, 직장, 학교 등에서 감정인식 사용을 금지한다.
한편, 일부 미국 의원들도 감정인식 기술에 주목하고 있으며, 이에 따라 결국에는 이 기술이 AI 규제의 주요 대상이 될 것으로 보인다. 규제 추진을 주도하고 있는 의원 중 한 명인 론 와이든(Ron Wyden) 상원의원은 최근 감정인식 기술에 대한 EU의 대처를 칭찬하며 “표정, 눈 움직임, 목소리 톤, 걷는 방식 등으로 우리가 누구인지, 우리가 앞으로 무엇을 할 것인지 판단하겠다는 것은 형편없는 생각이지만, 엉터리 과학에 기반한 감정인식 AI 개발에 엄청난 투자금이 쏟아지고 있다”고 주장했다.
그렇다면 감정인식 기술을 크게 우려하는 이유는 무엇일까? 이러한 우려에는 어느 정도의 그럴듯한 근거가 있는 것일까? 그리고 엄격한 규제가 실제로는 긍정적일 수 있는 혁신을 저해하는 것은 아닐까?
감정인식 기술은 아직 널리 배포되지 않았지만 이미 소수의 기업에서 이를 다양한 용도로 판매하고 있다. 그중 한 곳인 어펙티바(Affectiva)는 사람의 표정을 분석하는 AI를 사용해서 자동차 운전자의 피로도를 파악하거나, 영화 예고편에 대한 사람들의 반응을 평가하는 방법을 연구하고 있다. 하이어뷰(HireVue) 같은 기업은 유망 구직자를 선별하는 방법으로 감정인식 기술을 판매하기도 했다.
워싱턴DC에 본사를 둔 싱크탱크 정보기술혁신재단(Information Technology and Innovation Foundation)의 부사장 다니엘 카스트로(Daniel Castro)는 이메일에서 “나는 민간 부문에서 이 기술을 개발하도록 허용하는 데 찬성한다. 감정인식 기술은 다양하게 활용될 수 있다. 예를 들어 시각 장애가 있거나 시력이 낮은 사람이 주변 사람들의 감정을 이해하는 데 도움을 줄 수도 있다”고 말했다.
그러나 감정인식 기술이 활용되는 다른 분야들은 우려할만하다. 일부 기업은 사람의 거짓말을 판별하거나 의심스러운 행동을 알아내기 위한 소프트웨어를 법 집행기관에 판매하고 있다.
EU에서 후원하는 시범 프로젝트인 아이보더컨트롤(iBorderCtrl)은 국경 검문 관리에 감정인식 기술을 제공한다. 이 프로젝트의 웹사이트에서는 “자동 거짓 탐지 시스템(Automatic Deception Detection System)이 인터뷰 대상자의 비언어적인 미세 제스처를 분석해서 인터뷰의 거짓 가능성을 정량화한다”고 설명하고 있다(물론 ‘이 기술의 효과에 과학적 논란이 있다’는 것은 인정한다).
그러나 감정인식 기술 사용(이 경우에는 ‘남용’)으로 가장 잘 알려진 곳은 중국이며, 의원들도 분명 이 점에 주목하고 있는 것으로 보인다.
감정인식 AI 시스템을 경찰서에 설치한 적이 있다고 주장하는 어떤 소프트웨어 엔지니어에 따르면, 중국은 특히 신장 지역 위구르족을 감시하는 데 감정인식 AI를 사용해왔다고 한다. 감정인식은 거짓말 탐지기처럼 긴장하거나 불안한 ‘마음 상태’를 식별하기 위해 만들어졌다. 이와 관련해서 어떤 인권 활동가는 BBC에 “매우 강압적인 상황에서 엄청난 압박을 받고 있는 사람들은 당연히 긴장할 수밖에 없는데도, 이들의 긴장감이 죄책감의 표시로 받아들여진다”고 지적했다. 중국의 일부 학교에서는 학생들의 이해도와 성과를 측정하기 위해 감정인식 기술을 사용하기도 했다.
벨기에 브뤼셀에 본부를 둔 유럽디지털권리 단체의 수석 정책 고문인 엘라 야쿠보프스카(Ella Jakubowska)는 감정인식에 대한 “아직 신뢰할 만한 사용 사례를 들어본 적이 없다”고 말한다. 야쿠보프스카는 “안면인식과 감정인식 모두 사회적 통제, 감시자와 감시당하는 자, 그리고 권력의 집중과 관련이 있다”고 설명한다.
무엇보다도, 감정인식 모델이 정확할 수 없다는 증거가 있다. 감정은 복잡하고 심지어 인간조차도 타인의 감정을 식별하는 데 상당히 서투른 경우가 많다. 최근 몇 년간 더 좋은 데이터를 더 많이 사용할 수 있게 되고 컴퓨팅 성능이 향상되면서 감정인식 기술이 개선되었지만, 해당 시스템이 목표로 하는 결과와 사용되는 데이터의 품질에 따라 시스템 정확도는 크게 달라진다.
카스트로는 “감정인식 기술이 완벽해질 수 없는 이유는 컴퓨터 비전(computer vision)의 한계보다는 인간의 감정이 복잡하고 문화와 상황에 따라 달라질 수 있으며 부정확하기 때문인 것으로 보인다”고 말했다.
STEPHANIE ARNETT/MITTR | REJLANDER/GETTY MUSEUM
다시 다윈으로 돌아가서, 감정인식 분야의 근본적인 갈등은 ‘과학이 과연 감정을 알아낼 수 있는가?’라는 의문에서 비롯된다. 감정에 대한 기초 과학이 계속 발전한다면 우리는 ‘감성 컴퓨팅(affective computing)’의 발전을 목격할 수도, 그렇지 않을 수도 있을 것이다.
감정인식 기술을 둘러싼 이러한 상황은 AI가 널리 활용되고 있는 이 시대를 비유적으로 보여주는 것 같다. AI 기술이 극도로 과대 포장되어 있는 시대에 AI를 통해 세상을 훨씬 더 잘 파악하고 예측할 수 있다는 생각은 매력적으로 다가올 수 있다. 하지만 AI 전문가 메러디스 브루서드(Meredith Broussard)의 질문처럼, 과연 모든 것이 수학 문제로 환원될 수 있을까?