The Facebook whistleblower says its algorithms are dangerous. Here’s why.

“페이스북 알고리즘은 위험하다”…내부고발자의 용감한 폭로

페이스북 알고리즘의 위험성을 파악하고 내부 문건을 유출해 고발에 나섰던 프랜시스 하우겐이 미 상원 청문회에 출석해 증언했다. 그녀가 밝히는 페이스북 알고리즘의 문제가 무엇인지 자세히 살펴봤다.

10월 3일 밤, 월스트리트저널의 폭로 기사페이스북 파일(Facebook Files)’의 출처인 페이스북 내부 문건을 제공한 인물이 CBS 탐사보도 프로그램 ‘60분(60 Minutes)’에 모습을 드러냈다.

다름 아닌 전 페이스북 프로덕트 매니저 프랜시스 하우겐(Frances Haugen)이었다. 하우겐은 안전보다 이익을 우선시하는 페이스북 경영진의 태도를 보고 참을 수 없어 내부고발자로 나서게 됐다고 설명했다.

올해 5월에 페이스북을 그만두기 전 하우겐은 페이스북 직원들이 이용하는 사내 소셜 미디어 ‘페이스북 워크플레이스(Facebook Workplace)’를 샅샅이 뒤져서 방대한 내부 보고서와 연구 자료 등을 찾아냈다. 그녀는 이러한 내부 문건을 통해 페이스북이 플랫폼에 존재하는 문제들을 의도적으로 방치하고 있음을 보여주고자 했다.

상원 청문회에 출석

하우겐은 5일 미 상원 청문회에 출석해 페이스북이 사회에 미치는 영향에 관해 증언했다. 그 과정에서 내부 문건의 내용을 반복적으로 언급하며 의회에 대책을 촉구했다.

하우겐은 “나는 페이스북이 아이들에게 해를 끼치고, 분열을 조장하며, 민주주의를 약화한다는 생각으로 오늘 이 자리에 섰다. 이러한 문제는 충분히 해결될 수 있다. 페이스북도 방침을 바꾼다면 더 안전하고, 표현의 자유를 중시하며, 더 즐거운 소셜 미디어가 될 수 있다. 그러나 페이스북은 스스로 바뀌지 않을 것이다”라는 말로 증언을 시작했다.

증언에서 하우겐은 특히 페이스북의 알고리즘과 플랫폼의 의사결정이 이러한 모든 문제의 원인이라고 비난했다. 그간 국회의원들이 주로 페이스북의 게시물 관련 정책과 검열에 주목했던 것을 생각하면, 하우겐의 발언은 주목할만한 부분이라고 할 수 있다. 많은 전문가들은 국회의원들이 좁은 시야로 당장 눈앞에 보이는 문제 해결에만 집중하게 되면 더 큰 그림을 놓치게 될 거라고 생각한다.

하우겐은 페이스북이 영어권 국가와 비영어권 국가에 게시물 정책을 똑같이 적용하지 않는다는 점을 지적하며, “나는 콘텐츠 중심이 아니라 다른 방식의 해결책이 필요하다고 생각한다. 그런 해결책이야말로 취약한 사람들을 보호할 수 있을 것”이라고 주장했다.

하우겐의 이번 증언을 들어 보면, 올해 초 MIT 테크놀로지 리뷰가 보도했던 페이스북 고발 기사의 많은 부분들이 떠오른다. MIT 테크놀로지 리뷰는 해당 기사를 위해 페이스북 임원진, 전현직 직원, 다른 기술 기업 관계자, 외부 전문가 등 수십 명과 인터뷰를 진행했다. 하우겐의 증언을 이해하는 데 도움이 될만한 맥락을 제공하기 위해, 해당 보도에서 이번 증언과 관련된 부분을 가져왔다.

(분량 조절을 위해 내용을 약간 편집했다)

페이스북 알고리즘의 작동 원리는?

실제로 맞춤 광고와 추천 게시물 제공을 위해 페이스북이 사용하는 알고리즘의 수는 수백, 어쩌면 수천 개에 이를 것이다. 그러나 본 기사에서는 이해의 편의를 위해 모든 알고리즘을 ‘페이스북 알고리즘’이라고 지칭하겠다. 이런 알고리즘 중에는 이용자의 선호도를 파악해서 해당 이용자의 뉴스피드 상단에 추천 게시물을 올리는 알고리즘도 있고, 선정적, 스팸성, 클릭 유도용 게시물 같은 질 나쁜 게시물을 감지해 삭제하거나 뉴스피드 아래로 내리는 알고리즘도 있다.

이전 보도에서 언급했듯이, 이러한 모든 알고리즘은 ‘머신러닝 알고리즘(machine-learning algorithm)’이다. 머신러닝 알고리즘은 입력된 데이터를 이용한 훈련을 통해 데이터의 연관성을 학습하고 그에 따라 의사결정을 내린다. 예를 들어, 광고 클릭 데이터로 훈련한 알고리즘은 요가 레깅스 광고를 남성보다 여성이 훨씬 더 많이 클릭했다는 사실을 학습한 뒤, 그 결과를 기반으로 그런 광고를 여성에게 더 많이 제공한다.

또한 페이스북의 방대한 이용자 정보를 바탕으로 알고리즘은 ‘여성’이나 ‘남성’ 같이 넓은 범주뿐만 아니라 ‘요가 관련 페이스북 페이지를 좋아하는 25세에서 34세 사이의 여성’과 같은 매우 세세한 범주까지 추론해 그들에게 맞춤 광고를 제공할 수도 있다. 이런 식의 맞춤 광고는 클릭을 더 많이 유도할 수 있어서 결과적으로 광고주에게 더 많은 이익을 가져다줄 수 있다.

이와 같은 원칙은 뉴스피드의 추천 게시물에도 적용된다.

훈련을 통해 누가 어떤 광고를 클릭하는지 학습할 수 있는 것처럼, 알고리즘은 누가 어떤 게시물에 ‘좋아요’를 누르거나 공유하는지 예측할 수도 있고, 그런 게시물이 이용자의 눈에 더 잘 띄도록 배치할 수도 있다. 예를 들어, 알고리즘 모델이 어떤 이용자가 강아지를 매우 좋아한다고 판단했다면, 강아지 관련 게시물이 그 이용자의 뉴스피드 상단에 배치될 것이다.

머신러닝 알고리즘 도입 전에 페이스북은 버튼 색을 바꾸거나 이용자에게 보내는 초대 알림 빈도를 조절하는 등 이용자 참여를 늘리는 디자인 전략을 사용했다. 그러나 머신러닝 알고리즘은 훨씬 효과적이다. 알고리즘을 이용하면 페이스북 이용자의 선호도 변화까지 감지하며 맞춤 정보를 찾아낼 수 있기 때문에, 이용자를 계속 페이스북에 머물게 하는 콘텐츠를 끊임없이 제공할 수 있다.

페이스북 알고리즘의 관리자는?

페이스북 내부에 추천 게시물 시스템을 전담하는 팀은 없다. 각 팀마다 팀의 목표에 맞춰 각자 머신러닝 모델을 개발하고 추가하기도 한다. 예를 들어, 나쁜 게시물을 삭제하거나 뉴스피드에서 내리는 일을 담당하는 ‘무결성(integrity)팀’은 다양한 나쁜 게시물을 감지할 수 있도록 알고리즘 모델을 훈련시킬 것이다.

이러한 업무수행 방식은 페이스북의 신조, ‘빨리 움직여서 무언가를 깨뜨려라(move fast and break things)’의 일환으로 일찍부터 정해졌다. 페이스북은 ‘FB러너플로(FBLearner Flow)’라는 내부 도구를 개발해, 머신러닝 경험이 없는 엔지니어들도 필요한 모델을 쉽게 개발할 수 있게 했다. 한 문서에 따르면, 2016년에 페이스북 기술팀의 1/4 이상이 이미 이 도구를 사용하고 있었다.

지난번에 인터뷰를 진행했던 전현직 페이스북 직원 대다수는 이런 내부 시스템 또한 페이스북이 이용자의 뉴스피드에 제공되는 게시물을 통제할 수 없는 것처럼 보이게 하는 이유라고 설명했다. 팀마다 목표하는 바가 다르기 때문에 시스템은 점점 더 복잡하고 다루기 어려워지고 있으며, 따라서 아무도 시스템의 모든 부분을 추적할 수 없다.

그래서 페이스북은 품질관리 과정에서 ‘실험’하고 ‘측정’하는 단계를 거치게 했다. 이전 기사에 따르면, 각 팀은 FB러너에서 예를 들어, 추천 게시물 순서를 바꾸거나 회사의 기준에 부합하지 않는 게시물을 감지하기 위해 새로운 머신러닝 모델을 훈련시킨다. 그리고 일부 사용자에게 새 모델을 적용해서 새 모델을 도입했을 때 ‘좋아요’, ‘댓글’, ‘공유’ 등 참여 관련 지표가 얼마나 바뀌는지 테스트한다.

새 모델이 이용자 참여도를 너무 떨어뜨리면 모델은 폐기되고, 그렇지 않으면 모델을 배치해 관찰한다. 트위터에서 어떤 전직 페이스북 직원은 좋아요나 댓글 수가 내려가면 엔지니어들이 계속 알림을 받았다고 밝혔다. 그러면 엔지니어들은 문제의 원인을 파악하고 다른 모델의 필요성도 조사해야 했다.

페이스북의 추천 게시물은 가짜정보와 혐오 발언 확산에 어떻게 기여했는가?

하우겐은 증언에서 페이스북의 알고리즘이 가짜정보와 혐오 발언, 심지어 인종 간 폭력까지 조장한다고 계속 강조했다. 특히 참여도를 기반으로 하는 추천 게시물 시스템이 무결성과 보안 시스템 없이는 위험하다는 사실을 페이스북이 인정하면서도 비영어권 국가 대부분에서 그런 시스템을 제공하지 않고 있다고 꼬집었다.

이와 관련해 이전 기사에서는 “참여도를 극대화하는 머신러닝 모델은 논란, 가짜정보, 극단주의를 선호하게 되는데, 이는 간단히 말해서 사람들이 자극적인 콘텐츠를 좋아하기 때문이다. 때로는 이런 모델로 인해 기존의 정치적 긴장 상태가 악화되기도 한다. 미얀마에서는 로힝야족에 관한 가짜뉴스와 혐오 발언이 퍼지면서 국가의 종교적 갈등이 심화되고 결국에는 인종 학살로 이어졌다. 페이스북은 2018년이 되어서야 자신들이 ‘갈등 심화와 오프라인 폭력 사태 조장을 방지할’ 충분한 조치를 취하지 못했다고 인정했다”고 설명했다.

하우겐의 말처럼, 페이스북은 이를 이미 알고 있었다. 이전 보도에 따르면, 페이스북은 늦어도 2016년부터 이러한 현상에 대해 조사를 시작했다.

월스트리트저널이 검토한 그해의 페이스북 내부 문건을 보면, 페이스북의 연구원 모니카 리는 페이스북에 수많은 극단주의 단체가 존재할 뿐만 아니라 애초에 페이스북이 그들을 이용자로 끌어들이기까지 했다는 것을 발견했다. 자료는 “극단주의 단체의 페이스북 가입 중 64%가 페이스북의 추천 도구 때문이었다”고 밝히고 있다.

2017년에는 페이스북에서 오랜 기간 최고제품책임자로 근무한 크리스 콕스가 페이스북의 이용자 참여도 최대화가 정치 양극화에 기여하고 있는지 확인하기 위해 태스크포스를 구성했다. 조사에 따르면 둘 사이에는 실제로 상관관계가 있었으며, 양극화를 줄이면 이용자 참여도에 타격이 있을 것으로 예측됐다. 태스크포스는 ‘추천 알고리즘을 수정해 더 다양한 사람들이 페이스북에 가입하게 하는 방법’을 포함해 몇 가지 방안을 제시했다. 그러나 이런 방안들이 참여도를 떨어뜨릴 것으로 예측되자, 결국 제안 대부분은 받아들여지지 않았고 태스크포스는 해체됐다.

내가 진행한 인터뷰에서도 전직 페이스북 연구원이 위와 같은 연구를 진행했을 때, 참여도 중심의 알고리즘 모델이 이용자에게 점점 더 극단적인 게시물을 제공하며 양극화를 조장한다는 사실을 알아냈다고 말했다.

증언에서 하우겐은 이러한 현상이 비영어권 국가에서 훨씬 심각하다는 사실도 거듭 강조했다. 이는 페이스북이 언어마다 다른 게시물 정책을 적용하기 때문이다. 하우겐은 예를 들어 “에티오피아의 경우 인구는 1억 명이 넘고 공식 언어는 여섯 개나 되지만, 페이스북이 무결성 시스템을 제공하는 언어는 그중 두 개뿐”이라고 말했다. 

이와 관련해서 올해 초에 ‘대규모 언어 모델(large language model)’의 한계에 대해 설명했던 다른 기사를 소개한다.

‘대규모 언어 모델’에 언어상 결함이 있는데도 페이스북은 콘텐츠 조정 자동화를 위해 언어 모델에 깊이 의존하고 있다. 에티오피아 티그라이에서 11월에 처음 전쟁이 발발했을 때, AI 윤리 연구자 팀닛 게브루는 페이스북이 엄청난 가짜정보의 광풍을 제어하지 못하고 허둥대는 모습을 목격했다. 이는 연구자들이 콘텐츠 조정 과정에서 지속적으로 목격했던 전형적인 현상이다. 실리콘밸리가 우선시하지 않는 언어를 사용하는 커뮤니티는 가장 적대적인 디지털 환경을 경험하게 된다.

게브루는 가짜뉴스, 혐오 발언, 심지어 살해 협박 같은 내용이 제대로 삭제되지 않으면, 이 콘텐츠들이 다음 세대 언어 모델을 형성하는 훈련 데이터로 사용될 것이라고 경고했다. 그러면 훈련받은 내용을 앵무새처럼 흉내 내는 그런 언어 모델들이 결국 이러한 해로운 표현들을 인터넷에서 반복하게 될 것이다.

페이스북의 추천 게시물 알고리즘과 청소년 정신 건강 사이의 연관성은?

월스트리트저널이 보도한 페이스북 폭로 기사에서 드러난 내용 중 가장 충격적인 부분은 인스타그램이 이미 내부 조사를 통해 자사의 플랫폼이 10대 소녀들의 정신 건강을 해치고 있다는 사실을 알고 있었다는 것이다. 2020년 3월, 연구자들은 “10대 소녀 중 32%가 자신의 신체에 대해 부정적인 감정을 느끼고 있으며, 인스타그램이 이를 악화시킨다고 답했다”고 기록했다.

하우겐은 이러한 현상을 참여도 기반의 추천 게시물 시스템과 관련 짓는다. 그녀는 이런 추천 게시물로 인해 청소년이 거식증 게시물에 더 많이 노출된다고 설명했다.

그녀는 이어서 “인스타그램에 긍정적인 영향력이 있다면 지난 10년 동안 청소년 정신 건강의 황금기를 봤어야 했지만 실제로는 그렇지 않았다. 청소년 자살률이 상승했고 우울증도 증가했다. 소셜 미디어 사용이 정신 건강과 관련한 이러한 위험을 증폭시킨다는 생각을 뒷받침하는 연구 결과가 많이 있다”고 말했다.

이전 보도에서 이러한 현상이 페이스북으로 확장되는 것을 목격한 전직 AI 연구원은 “연구팀은 우울한 게시물을 올리거나 그런 게시물에 반응하는 이용자들이 자신들의 정신 건강을 훨씬 악화시킬 수 있는 부정적인 자료를 더 많이 소비한다는 사실을 발견했다”고 말했다.

그러나 하우겐처럼 그 연구원은 경영진이 근본적인 알고리즘 변화에 관심이 없다는 것을 알게 되었다. 연구팀은 이러한 이용자가 우울한 게시물에 노출되는 것을 줄이려고 참여도를 극대화하는 기존 방식 대신 추천 게시물 모델을 살짝 수정하자고 제안했다. 그러나 경영진은 이용자의 우울증 악화를 방지하려는 목적이라고 하더라도 참여도를 줄일 수는 없다며 제안에 반발했다.

어떻게 해결할 수 있을까?

하우겐은 콘텐츠에 대해 기술 기업의 책임을 면제하는 미국 ‘통신품위법 제230조’를 폐지하거나 페이스북을 해체하자는 주장에 반대한다. 대신 ‘참여도 기반의 게시물 추천 기능 제거’ 등 알고리즘 추천 시스템과 관련해 제230조 법을 수정하는 방식을 제안한다. 또한 페이스북에 대해서는 이전처럼 시간 순서대로 뉴스피드를 구성하는 방식으로 복귀하기를 바란다.

소셜 미디어 추천 시스템과 인권에 대한 영향에 관해 연구하는 비영리단체 ‘랭킹 디지털 라이츠(Ranking Digital Rights, 디지털 권리 순위)’의 프로젝트 책임자 엘러리 로버츠 비들은 230조를 수정해서 우리가 원하는 바를 얻기는 어려울 것이라고 전망하며, 법안 수정을 조심스럽게 검토할 필요가 있다고 말했다.

그녀는 실행 가능한 방향으로 조항을 수정하기 위해서는 정책입안자와 대중이 페이스북의 맞춤 광고와 추천 게시물 시스템 작동 원리를 더 제대로 파악하고 있어야 한다고 말했다. 그러면서 “하우겐의 의도를 이해한다. 그러나 쉽지는 않다. 우리는 알고리즘을 둘러싼 투명성 문제에 실제로 답을 하지 못했다. 아직 할 일이 매우 많다”고 덧붙였다.

그렇지만 하우겐의 폭로와 증언 덕분에 많은 전문가들과 페이스북 직원들이 몇 년 동안 주장했던 내용에 새롭게 이목을 집중시킬 수 있었다. 그 내용이란, 페이스북이 근본적인 알고리즘 디자인을 바꾸지 않는 한, 페이스북 문제를 제대로 해결할 수 없다는 것이다.

하우겐이 청문회에서 증언하면서, 페이스북이 스스로 문제를 해결하지 못할 경우 국회의원들이 강제로 페이스북 문제에 개입할 수 있다는 전망도 높아졌다.

하우겐은 이렇게 첨언했다. “의회는 페이스북에 대한 규칙도 바꿀 수 있으며, 페이스북이 초래하고 있는 피해도 멈출 수 있다. 나는 아직 우리에게 행동할 시간이 있다는 생각으로 엄청난 위험 부담을 감수하고 내부고발자로 나섰지만 이제 우리는 당장 행동해야 한다.”

미리보기 3회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.