In 2020, let’s stop AI ethics-washing and actually do something

‘AI윤리’라는 이미지 세탁을 중단하라

AI 윤리가 그 어느 때 보다도 화두가 되고 있다. 하지만 말만 많을 뿐, 아직 갈 길이 멀다.

작년, 기자가 인공지능 분야를 취재하기 시작했을 때 인공지능 세계에서는 중대한 경종이 울리고 있었다. 2018년 AI 연구는 강화학습부터 생성적 적대 신경망(GAN, Generative Adversarial Network)과 자연어이해(NLU, Natural Language Understanding)까지 괄목할 만한 성장을 이뤘다. 반면 이런 시스템이 너무 섣불리 활용될 때 발생할 수 있는 피해 사례들이 거론되기 시작했다.

테슬라 자동차가 오토파일럿 실행 중 충돌해 운전자가 숨지고, 우버 자율 주행차 역시 보행자 사망 사고를 일으켰다. 상용 얼굴 인식 시스템은 피부색이 어두운 사람을 대상으로 한 검사에서 형편 없는 성능을 보였다. 그럼에도 불구하고, IT 대기업은 법 집행 기관 등 고객에게 얼굴 인식 시스템을 계속 판매하였다. 올해 초, 이러한 사건을 바탕으로 나는 AI 커뮤니티를 위한 결의문을 쓴 적이 있다. AI를 단순히 마법처럼 다루지 말고, AI 커뮤니티가 AI를 윤리적으로 개발하고 적용하며 규제하는 책임을 담당해야 한다는 것이다.

어떤 면에서 필자가 바라던 바는 이루어졌다. 2019년부터 AI 윤리가 화두가 되기 시작했다. 수십 개의 단체가 AI 윤리 지침을 세웠으며, 기업은 앞다퉈 AI 윤리 팀을 만들고 언론에 과시했다. 윤리 관련 프로그램이 빠진 AI 컨퍼런스를 찾기 어렵다. AI에 데이터가 그토록 많이 필요하다면, 사람들의 프라이버시는 어떻게 보호할 수 있을까? 어떻게 소외 계층에 피해를 주지 않고, 대신 힘을 실어줄 수 있을까? 알고리즘 기반으로 생성ㆍ유포된 허위 정보 속에서 어떻게 미디어를 계속 신뢰할 수 있을까?

하지만 말은 그저 말일 뿐, 아직 갈 길이 멀다. 이 문제와 관련된 수많은 입에 발린 소리에도 불구하고, 대부분 조직의 AI 윤리 지침은 여전히 모호하고 실행하기 어렵다. AI 제품과 서비스가 평가 및 승인되는 방식을 가시적으로 변화시킬 수 있는 기업은 거의 없다. 우리는 진정한 행동이 피상적 약속으로 대체되는 윤리 세탁(Ethics Washing)이라는 덫에 빠지고 있다. 가장 극단적인 사례로, 구글은 윤리적으로 미심쩍은 프로젝트에 대한 실질적으로 제한을 가할 수도 없는 유명무실한 AI 윤리 위원회를 설립했다. 일부 위원들을 두고선 자격 논란도 일어났. 이는 곧 위원회 해체로 이어졌다.

한편, 더욱 원대한 윤리적 책임에 대한 필요성은 점점 절실해지고 있다. 2018년 GAN에서 거둔 성과는 초현실적 딥페이크 확산으로 이어졌다. 초현실적 딥페이크는 현재 여성을 타겟으로 하고 있으며, 문서와 증거에 대한 신뢰를 잠식하고 있다. 새로운 연구 결과, 딥러닝이 기후에 엄청난 영향을 미친다는 사실이 드러났지만, 기업과 기관들은 계속해서 훨씬 더 크고 에너지를 낭비하는 모델을 훈련시키고 있다. 학계와 언론은 또한 얼마나 많은 사람들이 알고리즘의 이면에 있는지 밝혀냈다. AI 산업은 콘텐츠 검토자, 데이터 라벨 작업자, 전사자(transcriber) 등 전혀 새로운 계층의 숨은 노동자를 양성하고 있으며, 이들은 때로 참혹한 환경에서 고군분투한다.

그러나 모든 상황이 어둡고 암울하지만은 않다. 지난해 지역사회 단체, 정책 입안자, IT기업 직원들이 자발적으로 일어나, 해로운 AI에 저항하여 대규모 민중 운동을 일으켰다. 캘리포니아주 샌프란시스코와 오클랜드, 매사추세츠주 서머빌 등 여러 도시에서 얼굴 인식 시스템의 공적 사용이 금지됐으며, 상정된 연방 법안에 따라 곧 미국 공공 주택에서도 금지될 전망이다. 마이크로소프트, 구글, 세일즈포스 같은 IT 기업 직원들 또한 이민자 추적 및 감시용 드론을 목적으로 회사가 인공지능을 사용하는 것에 대해 점점 더 비난의 목소리를 높였다.

AI 커뮤니티 내에서도 연구원들은 AI 편향성 완화를 위해 노력했고 비정상적인 에너지 소비를 초래하는 원인을 검토했다. 기업은 사용자의 프라이버시 보호 및 딥페이크와 허위 정보 대처에 더 많은 자원을 투자했다. 관련 전문가와 정책입안자들은 의미 있는 신규 법안을 발의하기 위해 손을 잡았는데, 이 법안은 혁신을 추구하면서도 의도치 않은 결과는 피하려는 목적이었다. 최근 열린 AI 분야 최대 행사 NeurIPS에서 얼마나 많은 기조연설의 주제, 워크샵, 포스터가 실제 생활의 문제에 초점을 맞추었는지에 대해 감동과 놀라움을 금할 수 없었다. 여기에서 실생활 문제라 함은 AI 때문에 발생하는 문제이기도 하고, AI가 해결할 수도 있는 문제이기도 하다.

앞으로 바라는 것은 별다른 게 아니다. 산업계와 학계가 이 모멘텀을 계속 유지해서, AI 개발을 재정립하는 것이다. 상·하향의 구체적인 변화를 시도해야 한다. 아직 시간적 여유가 있는 동안에 AI 분야에 활력을 불어넣으려는 계획도 잊어서는 안된다. 수십 년 전, 인류는 가장 어려운 문제를 해결할 목적으로 지능적 기계를 개발하기 시작했다.

다시 말해, AI는 인류의 번영을 돕기 위한 것이다. 이 점을 잊지 말자!

미리보기 3회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.