Apple defends its new anti-child-abuse tech against privacy concerns

사생활 침해 우려 낳은 애플의 아동 성범죄 방지 기술

아이폰을 직접 ‘검사’하는 애플의 새로운 아동 성범죄 방지 기술이 호평과 혹평을 동시에 받고 있다.

애플이 창립 이후 45년 역사 동안 만든 광고 중에는 자랑할만한 상징적인 광고 몇 개가 있다. 예를 들어, 유명한 1984년 슈퍼볼(Super Bowl)의 맥(Mac) 광고부터 ‘당신의 아이폰에서 일어난 일은 당신의 아이폰에만 남아 있습니다(what happens on your iPhone stays on your iPhone)’라는 말로 개인정보 보호를 약속하던, 약간 도전적인 2019년 광고까지 그러한 광고에 포함된다.

지난 8월 5일 애플은 아이폰에서 아동 성착취물(child sexual abuse material, CSAM)을 바로 감지하는 새로운 기술을 발표했다. 이 기술을 보면, 갑자기 애플이 광고에서 약속한 것과 달리 ‘당신의 아이폰에서 일어나는 일을 더는 그저 당신의 아이폰에만 남겨 두지는 않겠다’라고 말하는 것처럼 보인다. 논란을 불러일으킨 애플의 신기능은 사생활 침해, 감시, 기술주도 범죄에 관한 우려의 핵심을 건드렸다.

애플은 자사의 신기능이 아동 성범죄에 대항하면서도 사생활을 보호한다고 말한다. 그러나 이를 비판하는 이들이 제기하는 가장 큰 의문은 이러한 기술이 ‘현재 어떻게 사용될 수 있는가?’가 아니라 ‘미래에 어떻게 악용될 수 있는가?’이다.

애플의 새로운 사진 감지 기술이 전 세계적으로 더 광범위한 감시를 가능하게 하지는 않을까? 각국 정부가 국민의 아이폰에 아동 성착취물뿐만 아니라 다른 모든 금지된 자료가 저장되어 있지 않은지 애플 측에 조사해달라고 요청하기 시작하는 것은 아닐까?

애플은 ‘뉴럴해시(NeuralHash)’라고 부르는 자사의 새 감지 기술이 암호화된 사진을 복호화하지 않고도 아이폰에 저장된 아동 성범죄 사진을 감지할 수 있다고 말한다. 또한, 감지한 사진들을 국립실종착취아동센터(National Center for Missing and Exploited Children, NCMEC)로 보내 법 집행 단계로 넘어가기 전에, 오류 가능성을 줄이기 위해 여러 번 확인 작업을 거칠 것이라고 말한다. (예를 들어, 의심되는 사진 한 장을 감지했다고 신고하는 것이 아니라 반드시 여러 장을 감지해야만 신고 대상이 되는 방식 등.) 애플의 새 기능은 올해 미국에서 처음 사용되기 시작할 예정이다.

구글, 마이크로소프트, 드롭박스 등 거대 클라우드 서비스들은 이미 서버에 저장된 자료에 아동 성착취물이 포함되어 있는지 확인하고 있다. 따라서 애플이 말하는 신기능의 기본적인 전제 자체는 새로운 것이 아니다. 차이점이라면 애플의 감지 기능은 아이폰 자체에서도 실행 가능하다는 점이다. 애플은 이것이 이번 신기술에서 사생활을 보호하는 확실한 기능이라고 주장한다.

8월 6일에 있었던 언론과의 브리핑에서 애플은 다른 클라우드 서비스의 경우 사용자가 업로드하는 거의 모든 자료를 검사하지만, 애플의 기기 검사는 읽을 수 없는 해시(hash)만을 애플로 전송한다고 말한다. 이러한 해시는 애플이 아니라 NCMEC가 보유하고 있는 데이터베이스를 기반으로 아동 성범죄 사진을 감지하는 코드를 의미한다.

애플은 이번 기능이 사진을 아이클라우드(iCloud)에 업로드하는 사람들에게만 적용된다고 발표했다. (아이폰에서는 아이클라우드 자동 백업이 기본 설정이지만, 기능을 끌 수 있다.) 아이클라우드 계정은 지금도 암호화되어 있지 않으므로 법 집행 기관이 필요할 경우 이미 자료를 들여다볼 수 있다.

그렇다면 어째서 애플은 다른 기술 대기업이 하는 것처럼 자료가 업로드될 때 검사하지 않고, 휴대폰에 저장되어 있을 때 검사하겠다는 것일까? 기존 기술을 사용할 수 있는데도 어째서 복잡한 기술을 새로 개발한 것일까?

애플의 다음 행보

애플이 현재 무엇을 하고 있고 앞으로 무엇을 준비하고 있는지에 관해 우리가 알지 못하는 내용이 매우 많다. 일반적인 예측에 따르면, 이번주의 발표가 애플이 지금부터 몇 달 동안 보일 몇 가지 행보 중 첫 단계인 것으로 보인다.

애플의 마케팅은 몇 년 동안 사생활 보호에 중점을 두어 왔다. 아이폰은 자동으로 암호화되는 첫 번째 개인 기기 중 하나였고, 아이메시지(iMessage)는 메시지를 보내는 순간부터 상대방이 받을 때까지 모든 과정을 암호화하는 ‘종단 간 암호화(end-to-end encryption)’ 방식을 사용하는 가장 인기 있는 채팅 앱에 속한다. 그러나 많은 아이폰 사용자들은 자동으로 모든 자료를 아이클라우드 계정에 백업하고 있고, 아이클라우드는 암호화된 적이 없다. 따라서 위에서 말한 2019년의 그 유명한 아이폰 사생활 보호 광고 문구는 사실 수정되었어야 했을지도 모른다.

각국 정부는 수년 동안 애플을 포함한 모든 기술 기업에 엄청난 압력을 가해 왔는데, 이는 끔찍하고 잔혹한 범죄를 방지하기 위해 법 집행 기관이 암호화된 데이터에 접근할 권한을 얻기 위해서였다. 아동 성범죄는 그러한 끔찍한 범죄 목록에서 테러와 더불어 항상 상단을 차지하고 있다. 이러한 상황에서 사생활 보호를 표방한 애플 제품의 암호화는 범죄 조사를 더 어렵게 하기도 했으나 동시에 아이폰을 통한 감시와 권력 남용도 어렵게 했다.

여기서 큰 구멍은 항상 아이클라우드였다. 수사관들은 아이폰을 직접 조사하기는 쉽지 않았지만, 만약 암호화되어 있지 않은 아이클라우드에 대부분의 자료가 이미 업로드되어 있는 상황이라면 영장을 통해 업로드된 자료를 조사할 수 있다.

애플의 이번 발표 이후에 일부 전문가들은 애플이 곧 아이클라우드 암호화 계획을 발표하리라고 예측한다. 아이클라우드가 암호화되어 있는데도 애플이 아동 성범죄물을 감지하여 법 집행 기관에 증거를 넘기고 범죄자의 범죄 행위를 중단시킬 수 있다면, 애플 경영진에 대한 정치적 압박을 일부 완화할 수 있을지도 모른다.

물론 이것이 모든 압박을 완화할 수는 없을 것이다. 애플이 아동 성범죄에 대응하기를 바라는 대부분의 정부는 애플이 테러나 다른 범죄 관련 자료에 대해서도 대응해주기를 바라기 때문이다. 그러나 아동 성범죄는 거대 기술 기업들이 지금까지 대체로 해결하지 못한 실질적이고 거대한 문제이다.

미국 일리노이 대학교 어바나 샴페인 캠퍼스의 컴퓨터공학과 학과장이자 애플의 이번 기능을 검토했던 데이비드 포사이스(David Forsyth)는 “애플의 접근 방법은 내가 아는 다른 어떤 방법보다 사생활을 보호하는 방식이다”라고 말한다. 그는 “내가 판단하기에 이 시스템은 아동 성 착취물을 소유하거나 주고받는 이들을 발견할 확률을 상당히 높여줄 것이고, 아동 보호에도 도움을 줄 것이다. 범죄를 저지르지 않는 일반 사용자들은 사생활 침해를 당할 우려가 거의 없다. 왜냐하면 애플은 아동 성 착취 사진과 일정 부분 이상 일치하는 사진이 있는 경우에 해당 사진만을 확인할 수 있기 때문이다. 사진 매칭 시스템의 정확성이 높으므로 아동 성 착취물로 의심되지 않는 사진들이 노출될 가능성은 매우 희박하다”라고 말한다.

왓츠앱은 어떨까?

모든 거대 기술 기업은 자사의 플랫폼에서 아동 성범죄물과 관련한 끔찍한 현실과 마주한다. 그러나 그 어떤 기업도 애플처럼 대응하지는 않았다.

아이메시지처럼 왓츠앱도 종단 간 암호화 방식을 사용하는 채팅 앱으로 수십억 명의 사용자를 확보하고 있다. 그리고 이 정도 규모의 다른 플랫폼과 마찬가지로 왓츠앱도 아동 성범죄 문제에 직면해 있다.

왓츠앱의 책임자 윌 캐스카트(Will Cathcart)는 8월 6일 트위터에 “애플이 어제 발표한 정보를 읽었는데 걱정이 된다. 나는 애플의 방식이 잘못된 접근법이라고 생각하며, 이로 인해 전 세계 사람들의 사생활 보호에 문제가 생길 것이라고 생각한다. 왓츠앱에도 이 시스템을 도입할 것인지 묻는 사람들이 있는데, 내 대답은 ‘아니오’다”라는 글을 올렸다.

왓츠앱에는 신고 기능이 있어서 사용자가 성범죄 관련 콘텐츠를 발견하면 왓츠앱에 신고할 수 있다. 이러한 신고 기능이 완벽하지는 않지만, 작년 한 해 동안 왓츠앱은 40만 건 이상의 사례를 NCMEC에 전달했다.

캐스카트는 트위터에 이런 글을 남겼다. “이는 애플이 만들고 운영하는 감시 시스템이며, 이를 통해 애플이나 정부가 통제하고 싶은 이용자의 개인적인 자료를 쉽게 들여다볼 수 있게 될 것이다. 아이폰이 판매되는 국가들은 용인할 수 있는 자료에 관해 각기 다른 기준을 세울 것이다. 이러한 시스템이 중국에서 사용되는 것은 아닐까? 그런 경우에 중국이 어떤 자료를 불법으로 간주할까? 그리고 우리가 그런 정보를 알 수 있을까? 각국 정부가 애플 측에 아동 성범죄물 외에 다른 콘텐츠까지 검사 목록에 추가해달라고 요청한다면 애플은 어떻게 대처할까?”

언론과의 브리핑에서 애플은 새로운 감지 기술을 우선 미국에서만 배포할 예정이라고 강조했다. 그러나 애플은 계속해서 자사가 개인정보 침해에 맞서 싸워 왔으며, 앞으로도 그렇게 할 것이라고 주장하면서 애플을 향한 신뢰를 호소했다.

애플은 새로운 시스템이 정부 조치로 쉽게 유용될 수 없다고 주장하며, 새로운 기술 적용을 원하지 않으면 아이클라우드 백업 기능을 끄면 된다고 반복해서 강조했다.

아이메시지는 전 세계적으로 매우 인기 있는 채팅 앱이면서도 각종 SNS에는 이제 흔한 기능인 신고 기능이 없다는 점으로 인해 오랫동안 비판받았다. 그 결과 애플은 페이스북 같은 기업들과 대조적으로 NCMEC에 신고하는 사례 건수가 극히 적었다.

신고 기능을 추가하는 해결책을 적용하는 대신에 애플은 완전히 다른 무언가를 만들어냈고, 애플이 만들어낸 최종 결과물은 사생활 보호를 강력하게 주장하는 이들에게 쉽게 해결되지 않을 듯한 우려스러운 의문을 남기게 되었다. 그러나 이번 기능을 환영할만한 급진적인 변화로 여기는 이들도 있다.

NCMEC의 센터장 존 클라크(John Clark)는 성명에서 “아동 보호를 위한 이번 애플의 조치는 상황을 크게 바꿔 놓을 것”이라고 기대감을 드러내며, “사생활 보호와 아동 보호는 공존할 수 있다”라고 말한다.

실패한다면 그 대가는?

낙관주의자는 아이클라우드 계정을 완전히 암호화하면서도 아동 성 착취물을 감지할 수 있다면 아동 보호와 사생활 문제를 모두 해결하는 것이며, 이것이 미국, 유럽, 인도, 중국 정부가 말하는 ‘반(反) 암호화’ 주장을 약화하는 능숙한 정치적 행보가 될 수 있다고 말할 것이다.

현실주의자는 전 세계 여러 강대국에서 앞으로 어떤 일이 벌어질지 우려할 것이다. 정부 관계자들이 애플의 감지 기술을 이용한 감시 방법을 상상하기 시작하면서 애플이 각국 정부로부터 요청을 받거나, 어쩌면 이미 요청을 받았으리라는 것은 사실상 확실해 보인다. 정치적 압박은 규제나 권위주의적 통제와는 별개의 문제다. 그러나 그러한 위협은 새로운 것도 아니고 이번 시스템에만 특별히 벌어지는 일도 아니다. 중국과 조용히, 그러면서도 수익은 확실히 보장하는 합의를 한 전력이 있는 기업으로서 애플은 자신들에게 가혹한 정부에 저항할 능력이 있다고 이용자들을 설득하기 위해 많은 노력을 기울여야 할 것이다.

위에 말한 모든 내용은 사실이다. 애플의 새 기술은 앞으로 일어날 일이 무엇이냐에 따라 정의될 것이다. 만약 이번 기능이 정부에 의해 감시 시스템을 확장하는 무기로 사용된다면, 애플은 사생활 보호와 관련한 약속을 지키지 못하게 되는 것이다.


미리보기 3회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.