Uber’s facial recognition is locking Indian drivers out of their accounts

인도에서 발생한 우버 앱의 안면인식 오류

일부 드라이버들은 앱을 통한 신원 인증 과정에서 발생한 오류 때문에 우버 계정이 영구적으로 차단되기도 했다.

인도의 우버 드라이버들이 우버 앱 접속에 사용되는 안면인식 기술의 오류 때문에 피해를 보고 있다.  MIT 테크놀로지 리뷰가 150명의 인도인 우버 드라이버들에게  실시한 설문조사에서, 응답자의 절반에 가까운 사람들이 셀카 인증 때문에 일시적 또는 영구적으로 계정이 잠금 처리되었다고 대답했다. 많은 이들이 그 원인으로 수염, 삭발, 헤어스타일 같은 용모의 변화를 추측했으며, 조명이 어두웠다는 의견도 있었다. 

인도에는 60만 명의 우버 드라이버들이 있지만, 자국내 라이드 셰어링(ride-sharing) 플랫폼인 올라(Ola)나 스타트업 스위기(Swiggy), 조마토(Zomato), 어반컴퍼니(Urban Company)를 이용하는 사람들도 많다. 이들 앱은 공통적으로 로그인 및 본인 인증을 위해 셀카 업로드를 요청한다. 

우버는 “리얼타임 ID 체크(Real-Time ID Check)”라는 프로그램으로 드라이버가 프로필 사진과 일치하는지 확인한다. 2016년 미국에서 처음으로 선보인 이 기술은, 2017년 인도에 적용되었고, 이후 다른 시장으로 확산되었다. 우버의 최고보안책임자 조 설리번(Joe Sullivan)은 2017년 공지를 통해 “이 프로그램은 부정행위를 방지하고 해킹으로부터 계정을 보호한다. 또한, 등록된 드라이버만 앱을 사용할 수 있도록 별도의 책임 단계를 구축함으로써 승객의 안전을 보장한다”라고 밝혔다.

그러나 그 인증 절차가 원활하지 않아서 문제가 되었다. 뭄바이에서 우버 드라이버로 일하는 아드난 타키(Adnan Taqi)는 해가 질 무렵 우버 앱에 셀카 인증을 요청했지만 신원인증에 실패하면서 위기에 처했다. 그의 우버 계정은 48시간 동안 잠겼고, 그 결과 운전을 할 수 없었다. 그는 생계유지를 위해 18시간을 쉬지 않고 운전하거나 때로는 24시간까지 일하고는 했다. 며칠 후에 그는 다시 셀카 인증을 시도했지만 실패했다. 이번에는 1주일 내내 우버 계정이 잠겼다. 그는 “며칠 동안 면도를 하지 않았고 머리도 조금 자랐다”라며 그 원인을 추측했다. 

일부 드라이버들은 휴대폰 카메라에 흠집이 생기거나 카메라 기능이 부실한 저가형 휴대폰을 사용했을 때에는 인증 과정이 쉽지 않았다고 말했다. 앱을 통한 신원 인증의 오류는 우버뿐만이 아니라, 소프트뱅크(SoftBank)가 투자한 올라(Ola) 앱을 사용할 때도 동일하게 발생하는 문제다. 

MIT 테크놀로지 리뷰는 우버에 안면인식 기술과 드라이버들의 경험에 관련된 질문지를 보냈으나 처음에는 대답을 받지 못했다. 결국 본 기사가 게재된 후, 우버는 안면인식 자체만으로 계정이 비활성화될 수 없다며 항변에 나섰다. 리얼타임 ID 체크는 어떻게 작동하는 것일까? 드라이버의 사진을 비교하여 만일 일치하지 않는 요소들이 감지되면 경고성 데이터가 급증한다. 그 이후는 최소 두 명이 수작업으로 우버 기사의 신원이 일치하는지 여부를 확인한다. 이 과정에는 대개는 25초 미만이 소요되며 사진에서 헤어스타일이 달라진다면 그 변화까지도 인식한다고 우버는 설명했다. 

그렇지만 10명 이상의 우버 드라이버들은 계정이 잠기는 일이 생기지 않도록 더 밝은 조명을 가진 장소를 찾아야 했다고 고충을 토로했다. 하이데라바드 지역에서 우버 드라이버로 일하는 산토시 쿠마르(Santosh Kumar)는 “우버가 저녁이나 밤에 셀카 인증을 요청하면 선명한 사진을 촬영하기 위해 차를 세우고 가로등 아래까지 이동해야만 한다. 그렇지 않으면 인증에 실패할 수 있다”라고 말했다. 

독립 기술 자문위원인 예르네이 카브카(Jernej Kavka)에 따르면 우버의 리얼타임 ID 체크는 마이크로소프트의 안면인식 기술(Face API)을 사용한다. 이 기술은 사람의 얼굴 모양을 일련의 포인트로 변환해 파악한다.

카브카는 “수염이 긴 경우 포인트가 변화해 턱의 위치를 인식하지 못할 수 있다”고 말했다. 조명이 어둡거나 휴대폰 카메라의 대조(contrast) 성능이 좋지 않아도 마찬가지다. “시스템이 가장자리를 감지하는 것을 어렵게 만들기 때문”이라고 카브카는 설명했다. 마이크로소프트의 안면인식 기술은 인도에서 특히 취약한 것으로 보인다. 2021년 12월, 사이버브릭스 프로젝트(CyberBRICS project)의 기술 정책 연구원 스미리티 파쉬라(Smriti Parsheera)와 국제금융공사의 경제학자 가우라브 제인(Gaurav Jain)은 출판 전 논문을 게재했다. 그 내용은 현재 상용화된 4가지 안면인식 기술인 아마존의 레코그니션(Rekognition), 마이크로소프트의 애저 페이스(Azure’s Face), 페이스++(Face++), 페이스X(FaceX)을 대상으로 인도인의 얼굴에 대한 인식성능을 검수한 것이었다. 연구팀은 32,184건의 선거 후보자들의 이미지를 데이터베이스에 적용했다. 실험 결과, 마이크로소프트의 애저 페이스는 1,000건 이상의 이미지에서 얼굴을 인식하지 못했고 4가지 기술 중에서도 가장 높은 3% 이상의 오류율을 기록했다.

운전자가 핸드폰을 들고 있는 모습. 그는 조명의 밝기와 수염의 변화가 앱 오류의 원인이라고 추측한다.
SELVAPRAKASH LAKSHMANAN

파쉬라는 마이크로소프트의 안면인식 기술이 인도인의 다양한 얼굴에 익숙하지 않기 때문에 우버 앱에서 드라이버들이 어려움을 겪을 수 있다고 설명했다. 조명, 앵글, 노화 등과 같은 다양한 원인도 존재한다. 그러나 “이런 시스템들은 투명성이 부족해 더 이상 구체적으로 밝혀내기 어렵다”라고 논문에서 언급했다. 

우버는 회사 내부 직원들과 마이크로소프트 파트너십 관계자들이 정기적으로 모여 테스트를 진행한다고 말했다. 우버는 이 테스트에서 다양한 피부색을 가진 사용자에게 프로그램이 어떻게 작동하는지 이해하고, 효율성과 정확성을 개선하고 있다고 주장했다. 반면, 마이크로소프트는 MIT 테크놀로지리뷰의 질문에 답변을 거부했다. 

하지만 모든 문제가 알고리즘의 탓은 아니다. 드라이버들은 우버의 고충 처리 방식이 지루하고, 느리고, 답답하며, 도움이 되지 않을 때가 대부분이라고 불만을 터뜨렸다. 만일 앱에 문제가 발생하면 해결에 몇 주가 걸리는 일도 부지기수다. 타키는 “계정 잠금을 해제하려면 우버 콜센터에 계속 전화를 거는 수밖에 없다. 우버의 앱 서버는 항상 다운되어 있는 것처럼 보인다”라고 절망스럽게 말했다. 

한편, 우버는 드라이버들에게 계정을 재활성화할 수 있는 기회를 주고 있다고 밝혔다.

만약 이런 문제가 지속되고 드라이버들에 대한 보호가 제한된다면 일을 못하는 것을 떠나서 경제 전체적으로 엄청난 영향을 미칠 수 있다. 인도 주거연구소 선임 연구원 아디티 수리(Aditi Surie)는 “인도의 인력 플랫폼은 노동자, 시장, 정부 사이를 연결하는 중요한 접점이다. 차량 대출이나 더 큰 규모의 가계 지출에 대한 신용 대출도 가능하다”라고 설명했다. 

그는 단기간 또는 일회적 일거리로 소득을 얻는 긱 워크(gig work) 연구를 인도에서 진행한 바 있다. 플랫폼 기반의 직업들은 인도의 빈곤층이 중산층으로 올라갈 수 있는 기회를 제공한다.  전 세계적으로 팬데믹 기간 동안 빈곤층으로 추락한 인구의 대다수가 인도에 살고 있는 것으로 추정된다. 따라서 앱의 계정이 차단을 당하거나 제외되는 상황은 경제활동을 멈추게 하므로 심각한 결과를 초래할 수 있다. 

인도 뿐만 아니라 다른 나라의 긱 워커들도 안면인식 기술에 맞서 싸우고 있다. 영국에서는 작년에 최소 35명의 우버 드라이버들이 계정을 삭제 당했다고 한다. 영국의 독립노동조합은 우버 앱이 인종차별적 알고리즘(racist algorithm)을 사용한다면서 우버를 비난했다. 안면인식 기술 때문에 우버는 영국에서만 최소 두 번의 소송에 직면했다. 이에 따라 우버는 영국과 유럽연합 지역에서 일하는 우버 드라이버들이 안면인식 기술을 사용한 셀카 인증을 하거나 실제 사람을 거쳐 신원을 확인하는 방법 가운데 선택을 할 수 있도록 절차를 바꾸었다.  

몇몇 나라와 지역에서는 이들의 보호를 강화하기 위한 움직임이 이루어지고 있다. 작년 유럽연합은 노동 조건을 개선하고 알고리즘의 투명성을 보장하기 위한 지침(directive)을 제정했다. 또한 2021년 9월 무렵 캘리포니아주 법원은 캘리포니아주 법률에 명시된 고용인 복지제도에서 긱 워커들을 제외하는 주민발의안22(Proposition 22)가 위헌이라고 판단했다. 

런던 대학(University College London)의 변호사이자 박사 수료자 디비즈 조시(Divij Joshi)는 이러한 규제들은 알고리즘 시스템이 “노동자 권리에 미치는 악영향”을 인식한 결과라고 설명했다. 그는 인도에서는 이들을 위한 법적 보호 장치가 거의 마련되어 있지 않다며, “다른 나라와 같은 수준의 투명성에 대한 노력은 인도의 정책이나 규제에서 찾아볼 수 없다”고 지적했다.

프린스턴 대학에서 조직 사회학을 강의하는 엘리자베스 앤 왓킨스(Elizabeth Anne Watkins)는 안면인식이 미국의 우버 드라이버들에게 미치는 영향을 광범위하게 연구해 온 결과, 공통점을 발견했다. 현재 인텔 랩스(Intel Labs)의 연구 과학자로 재직 중인 왓킨스는 2020년 논문을 통해 “이 시스템은 다양한 조건에 따라 쉽게 오작동하며 안면인식이 실패했을 때 조직적 지원이 거의 없어 긱 워커들에게 무거운 부담을 줄 수 있다”라고 말했다. 이어서 “더욱이 시스템 상의 오류로 인한 실패의 결과는 결국 긱 워커들에게 전가된다”고 덧붙였다.  

알고리즘 시스템에 대한 긱 워커들의 이해를 연구하는 사만다 달랄(Samantha Dalal)은 인공지능의 결정 방식은 더 투명해져야 한다고 주장했다. 콜로라도 볼더 대학(University of Colorado Boulder)의 박사 수료생 달랄은 “<당신의 계정이 비활성화되었습니다> 이상의 설명이 필요하다”며, “이 정도의 역량은 시스템이 충분히 가지고 있다”고 말했다. 달랄은 인간도 아니면서 변덕스러운 인공지능 상사가 무엇을 원하는지 알 수 없는 드라이버버들이 앱 사용 과정에서 많은 시행착오를 겪고 있다고 말했다. 

한편, 우버는 계정을 비활성화하기 이전에 이메일을 통해서 여러 차례 확실한 경고를 보내고 있다고 밝혔다. 

미리보기 2회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.