The messy morality of letting AI make life-and-death decisions

AI에게 인간의 생사를 결정하게 한다면…

우리가 어려운 결정을 내릴 때 자동화가 도움을 줄 수 있을지 모르지만, 단순히 자동화 자체에만 의존하는 건 위험하다.

네덜란드 로테르담에 소재한 어느 작업실에서 ‘닥터 데스(Dr. Death)’ 내지 ‘조력자살 분야의 일론 머스크’라고 불리는 필립 니쉬케(Philip Nitschke)가 그가 새로 발명한 기계 사르코(Sarco)를 스위스의 첫 고객에게 발송하기 전 최종 테스트하고 있다.  

이 기계는 니쉬케가 세운 비영리 단체인 ‘엑시트 인터내셔널(Exit International)’이 3D 프린팅하여 가동 준비를 마친 세 번째 프로토타입이다. 첫 번째 프로토타입은 독일과 폴란드에서 공개된 바 있다. 두 번째 프로토타입에 관해선 니쉬케는 “재앙적이었다”며 “이번 세 번째 프로토타입은 제조 과정상의 에러를 해결해 출시 준비를 마쳤다”고 말했다.

영화 〈스타트렉〉에 나올 법한 스타일로 제작된 관 크기의 유선형 공간인 사르코는 니쉬케가 25년간 추진해 온 ‘기술을 통한 죽음의 탈의료화’ 캠페인의 정점에 서 있다. 탈의료화란 과거에는 치료의 대상이었을 수 있는 것을 오늘날 병으로 간주하지 않는 것을 말한다.

사르코 안에 들어가 죽기로 결심한 사람은 “당신은 누구신가요?”, “당신은 어디에 계신가요?”, “이 버튼을 누르면 어떤 일이 발생할지 아시나요?”란 세 가지 질문에 답해야 한다.

버튼을 누르면 사르코 안은 질소로 가득 찬다. 안에 있는 사람은 1분 안에 의식을 잃고 5분 내에 질식사한다.

짧은 마지막 인터뷰 기록은 이후 스위스 당국에 제출된다. 니쉬케는 스위스 정부의 허가를 받고자 시도한 적은 없지만, 스위스는 합법적으로 조력자살을 허용하는 몇 안 되는 국가 중 하나다. 죽기를 바라는 사람이 직접 목숨을 끊는 한 그것을 허용해준다.

니쉬케는 “최대한 누군가의 도움을 받지 않고 조력자살을 할 수 있게 만들어 목숨을 끊고자 하는 사람들에게 자율성과 마지막 순간의 존엄을 지켜주고 싶다”며 “죽기 위해서 꼭 의사가 필요한 것은 아니다”라고 말했다.

사르코는 보통 안락사 클리닉에서 사용되는 약물인 바르비투르산염(barbiturates)보다 쉽게 구할 수 있는 질소를 사용하기 때문에 주사를 놓거나 독극물 사용 허가를 내줄 의사가 필요 없다.   

적어도 그런 개념이다. 니쉬케도 아직은 의료 시스템을 완전히 벗어나지는 못했다. 스위스는 아직도 안락사를 원하는 사람들에게 정신상태 평가를 요구하고 있다. 평가는 주로 정신과 의사가 맡는다. 니쉬케는 “죽기를 바라는 사람은 진단이 제대로 안 된 어떤 정신질환을 앓고 있다고 생각하는 식”이라며 “죽음을 원하는 것이 비합리적이라고 생각하기 때문”이라고 말했다.  

하지만 니쉬케는 그가 해결책을 찾아냈다고 믿는다. 엑시트 인터내셔널은 사람들이 컴퓨터로 직접 정신상태 평가를 할 수 있는 알고리즘을 개발 중이다. 이론상으로 이 온라인 테스트를 통과한 사람에게 프로그램은 사르코를 활성화할 수 있는 네 자리 코드를 준다. 니쉬케는 “그것이 목표긴 하지만 프로젝트는 여전히 매우 어렵다”고 말했다.

니쉬케의 미션을 극단적이고 심지어 터무니없다고 생각하는 사람도 있을 수 있다. 그리고 그가 믿고 있는 알고리즘의 힘도 지나치게 과장된 것일 수 있다. 하지만 생사의 결정에 있어서 기술, 특히 AI의 힘을 빌리려고 하는 건 니쉬케만이 아니다.

니쉬케는 AI를 개인들이 스스로 극단적 선택에 대한 최종 결정을 내릴 수 있도록 권한을 부여하는 수단으로 본다. 하지만 다른 일각에서는 AI가 과연 그런 결정을 내리는 사람의 부담을 제대로 덜어줄 수 있을지에 대해 의문을 제기한다. AI는 이미 여러 의료 관련 분야에서 환자 중증도 분류와 치료 영역에서 활용되고 있다. 단, 보건의료 분야에서 알고리즘의 역할이 점점 더 중요해지고 있는 가운데 우리는 AI의 역할이 도덕적 결정이 아닌 의료적 결정으로 국한되도록 해야 한다.

의료는 한정된 자원이다. 환자들은 검사나 치료를 받기 위해 약속을 잡고 기다려야 한다. 장기이식이 필요한 환자들은 적합한 심장이나 신장을 찾을 때까지 기다려야 한다. 백신은 가장 취약한 계층부터 접종해야 한다. 코로나19 팬데믹 상황이 최악으로 치달았을 때 병원들은 침상과 인공호흡기 등의 부족 사태를 겪었고, 의사들은 환자의 치료 우선순위를 두고 신속한 결정을 내려야 했다. 이 결정에 따라 비극적인 결말이 초래되기도 했다.

코로나 사태가 그러한 결정의 필요성을 조명해주자 많은 이들은 알고리즘이 결정에 도움을 줄 수 있을지 궁금해했다. 그러자 전 세계 병원들은 새로운 혹은 기존의 AI를 사용해 중증도 분류를 하기 시작했다. 흉부 엑스레이 선별에 AI 툴 활용을 고려하던 몇몇 영국 병원은 이 툴을 사용해 빠르고 저렴하게 가장 심각한 코로나 케이스를 선별해 낼 수 있었다. 그런 기술을 제공하고 있는 한국의 루닛(Lunit)과 인도의 큐어.ai(Qure.ai) 같은 기업들은 미국, 유럽, 아프리카 등과 계약을 맺었다. AI를 기반으로 한 중증도 분류 툴을 인도, 미국, 아프리카에 제공하고 있는 이스라엘 회사인 다이아고스틱 로보틱스(Diagnostic Robotics)는 팬데믹 첫해 동안 수요가 7배나 뛰었다고 말했다. AI 기반 의료 사업은 이후로 계속 호황을 맞고 있다.

이처럼 자동화를 향한 움직임은 쉽게 대답을 찾기 힘든 어려운 질문으로 이어진다. 예를 들어 “어떤 결정이 알고리즘을 통해 내리는 게 적합할까?”, “이런 알고리즘을 어떻게 구축해야 할까?”, “알고리즘이 작동하는 방식을 누가 결정해야 할까?” 등의 질문이다.

소셜데이터애널리틱스센터(Centre for Social Data Analytics)의 책임자인 레마 베이시아나탄(Rhema Vaithianathan) 뉴질랜드 오클랜드 공과 대학(Auckland University of Technology in New Zealand) 교수는 보건복지 분야의 기술 활용에 집중하고 있다. 그는 사람들이 중대 결정을 내릴 때 AI의 도움을 받고자 하는 게 옳다고 생각한다. 그는 “우리는 의료진이 어렵게 느끼는 문제들에 해결책을 제시해야 한다”고 말했다.

베이시아나탄 교수가 진행 중인 프로젝트 중 하나는 어린 친구들의 자해행위에 대해 진단하고 치료받을 수 있게 해주는 10대 정신건강 서비스다. 정신건강 클리닉에 대한 수요가 상당하기 때문에 클리닉은 늘 최대한 빨리 환자들을 퇴원시켜 더 많은 신규 환자들을 볼 수 있게 회전율을 높여야 한다.

의사들은 기존 환자를 계속 치료하는 것과 새로운 환자를 받는 것, 이 두 가지 사이에서 어려운 선택을 해야 한다. 베이시아나탄 교수는 “의사들은 환자들이 자해하는 것을 매우 두려워하기 때문에 쉽게 그들을 퇴원시키지 못한다”며 “퇴원한 환자가 다시 자해를 하는 것은 거의 악몽과 같은 시나리오”라고 설명했다.

AI가 정확해 보이더라도 학자와 규제당국은 모두 신중을 가할 것을 당부한다.

베이시아나탄 교수와 동료들은 과거 의사들의 의사결정에 추가적 도움을 줄 수 있도록 진료기록과 인구통계학적 정보 등 광범위한 데이터를 사용하여 미래 자해행위 위험이 가장 높은 환자를 예측할 수 있는 머신러닝 모델 개발을 시도해왔다. 그는 “나는 항상 임상의들이 어려워하는 지점, 즉 알고리즘의 도움을 받을 수 있는 케이스들을 찾고 있다”고 말했다.

프로젝트는 아직 초기 단계이나 연구원들은 모델이 정확한 예측을 할 수 있도록 트레이닝 할 수 있는 데이터가 부족할 것으로 판단하고 있다. 시도는 계속할 예정이다. 베이시아나탄 교수는 꼭 모델이 완벽해야만 의사들을 도울 수 있는 것은 아니라는 입장이다.

그의 팀만이 환자 퇴원 리스크를 예측하고자 시도하는 유일한 팀은 아니다. 2021년에 발표된 한 리뷰에서는 미국에서 환자의 병원 퇴원 후 사망 혹은 재입원 여부를 예측하는 머신러닝 모델을 활용한 연구 43건을 조명하기도 했다. 임상 적용을 할 만큼 정확한 모델은 하나도 없었지만 ­­리뷰의 집필자들은 이런 모델들이 의료의 질을 높이고 치료비용을 낮출 수 있는 때가 오기를 고대하고 있다.

AI가 정확해 보이더라도 학자나 규제당국은 신중을 가할 것을 당부하고 있다. 무엇보다 알고리즘이 따르는 데이터와 데이터를 따르는 방식이 사람의 산출물이며, 편향성으로 가득 차 있기 때문이다. 의료 데이터는 백인 남성 데이터가 압도적으로 많아 예측력을 왜곡할 수 있다. 또한 겉보기에는 객관성을 제공하는 듯한 모델들 때문에 사람들이 도덕적 책임을 전가하는 결과를 초래할 수도 있다. 기계의 결과물을 의심해 보기보다는 맹신하게 되는 것이다.

현재 풀리지 않고 있는 문제는 데이비드 로빈슨(David Robinson)의 신작 《코드의 목소리(Voices in the Code)》에 나온 AI 민주화라는 새로운 테마다. 캘리포니아 버클리  대학교 사회과학대의 객원교수이자 애플 대학교(Apple University) 교수진 중 한 명인 로빈슨은 벨딩 스크리브너(Belding Scribner)에 관한 이야기를 소개한다. 1960년 시애틀에서 신장 전문의로 일한 스크리브너는 투석 치료 중 혈액이 응고되는 것을 방지하기 위해 션트(shunt)라는 짧은 테플론(합성수지) 튜브를 환자의 팔에 삽입했다. 이 같은 혁신 덕에 신장 질환을 앓고 있는 환자들이 투석을 무한정으로 받을 수 있게 됐고, 신장 손상을 치명적 상태에서 장기질환으로 완화시켰다.

이 소문이 나자 스크리브너에게는 치료 요청이 쇄도했다. 하지만 그가 모든 환자를 볼 수는 없었다. 그는 어떤 환자를 도와주고 어떤 환자를 돌려보내야 하는 문제가 의료 결정이 아니라 도덕적 결정임을 깨달았다. 그는 곧 일반인들로 이 결정을 대신 해줄 위원회를 구성했다. 당연히 위원회가 내린 선택은 완벽하지 않았다. 일례로 당대에 팽배하던 편견 때문에 위원회는 직장과 가족이 있는 기혼 남성에 편향된 결정을 하곤 했다.

로빈슨에 따르면  스크리브너의 이야기를 통해 배워야 할 교훈은 관료적·기술적·알고리즘적 절차 같은 특정 절차들이 난해한 문제를 중립적이고 객관적으로 보이게 만들 수 있다는 사실이다. 그럴 경우 의사결정의 도덕적인 면이 모호해져서 가끔 끔찍한 결과를 초래할 수 있다.

로빈슨은 “관료주의 자체가 어려운 도덕적 문제를 지루한 기술적 문제로 바꿀 수 있다”고 썼다. 이런 현상은 컴퓨터가 등장하기 이전부터 있어왔다는 것이다. 그는 하지만 “소프트웨어 기반 시스템들은 이러한 트렌드를 가속화 및 확장시킨다”며 “정량화는 도덕적 마취제와 같고, 컴퓨터는 그 마취를 그 어느 때보다 쉽게 적용할 수 있게 해준다”고 말했다.

어떤 프로세스를 거치건 우리는 내리고자 하는 결정이 의미할 수 있는 고통스러운 결과에 대해 검토해 봐야 한다.

2000년대에 미국에서는 기증된 신장의 수령자를 결정할 수 있는 알고리즘이 개발되었다. 하지만 일부는 알고리즘이 설계된 방식에 대해 불만을 가졌다. 2007년 로스앤젤레스에 거주하던 신장 이식 후보 중 한 명인 클라이브 그로우(Clive Grawe)는 전문 의료진이 가득한 방에서 알고리즘이 본인과 같은 고연령자들에게 편향된 결정을 내린다고 주장했다. 알고리즘은 구할 수 있는 수명을 최대화하는 방향으로 신장을 할당하도록 설계되었다. 그로우와 다른 환자들은 이런 구조는 젊고, 부유하고, 백인인 환자를 선호할 수밖에 없다고 주장했다.

알고리즘의 이러한 편향성은 낯설지 않다. 하지만 알고리즘의 설계자들이 알고리즘에 문제가 있다고 동의하는 일은 매우 드물다. 그로우 같은 일반인들과 수년간 컨설팅한 끝에 신장기증 모델의 설계자들은 구할 수 있는 수명을 최대화하면서도 기존보다는 덜 편향된 방법을 찾아냈다. 나이에 더해 전체적인 건강도 고려하는 것이다. 대부분의 기증자들은 젊었을 때 사망한 사람들인데, 이제 그들이 더 이상 꼭 비슷한 연령대의 수령자와 매칭되지는 않게 되었다는 점이 이후 생긴 핵심적인 변화다. 이제 그런 신장 중 일부는 신장 외에는 건강한 나이가 많은 수령자에게도 기증될 수 있다. 이 알고리즘이 여전히 모두가 동의하는 결정을 내릴 순 없을 것이다. 하지만 알고리즘이 개발된 과정에 따라 과실 가능성은 더 낮아졌다.

“나는 환자 옆에 앉아서 주사를 놓고 싶지 않다. 본인이 원하면 (기계) 버튼을 누르면 된다.” – 필립 니쉬케

니쉬케 역시 어려운 질문을 던진다.

호주의사협회와의 장기간의 법적 공방 끝에 의사 자격증을 불태워버린 전직 의사인 그는 합법적으로 타인에게 생명에 치명적인 독물 주사를 놓은 최초의 인물이다. 1996년 7월 호주 북부에서는 안락사를 합법화하는 법을 도입하자 1997년 3월 연방정부가 이 판결을 다시 뒤집었는데, 이 9개월의 기간 동안 니쉬케는 환자 4명의 안락사를 도왔다. 

그가 가장 먼저 안락사를 도운 사람은 66세 목수였던 밥 덴트(Bob Dent)였다. 그는 전립선암으로 5년간 고생해 오던 환자로, 공개서한에서 자신의 안락사 결정에 대해 “만약 내가 나와 같은 건강상태의 애완동물을 계속 키우려고 한다면 나는 처벌을 받게 될 것”이라고 말했다.

니쉬케는 환자들의 결정을 돕고 싶었다. 그럼에도 불구하고 그는 본인이 해야 하는 역할이 불편했기 때문에 이를 기계로 대체하기로 한 것이다. “나는 환자 옆에 앉아 주사를 놓고 싶지 않았다. 본인이 원하면 (기계) 버튼을 누르면 된다.”

초기 기계는 그저 주사기와 노트북을 연결한 것이었지만 그래도 목적을 달성하기에 충분했다. 현재는 런던과학박물관에 비치된 원조 기계를 여러 차례 개선해서 나온 결과물이 사르코다. 니쉬케는 다음 단계로 정신건강 평가 수행 알고리즘 개발을 구상하고 있다.

하지만 그의 희망은 묵살될 가능성이 높다. 누군가의 정신건강 상태를 평가하는 프로그램은 아직 미결이자 논쟁이 큰 사안이다. 니쉬케 자신도 인정한 것처럼 의사들은 건전한 정신상태인 사람이 죽음을 결심할 수 있느냐에 대해 서로 의견이 엇갈린다. 니쉬케는 “12명의 정신과 의사에게 물어보면 12개의 각기 다른 답이 돌아온다”고 말했다. 이는 달리 말하면 알고리즘을 개발할 수 있는 공통 기반조차 없다는 말이다.

하지만 그것이 핵심이 아니다. 스크리브너와 비슷하게 니쉬케는 어떤 사안이 의료 결정의 영역이고 또 어떤 사안이 도덕적 결정의 영역인지, 또 누가 그런 결정을 내려야 하는지에 대해 질문한다. 스크리브너는 누가 투석을 받을지를 사회 전체를 대표하는 일반인들이 정해야 한다고 생각했다. 환자들의 생존 확률이 비슷하다면 누가 살고 누가 죽느냐는 더 이상 기술적 질문이 아니기 때문이다. 로빈슨의 말대로 사회는 이러한 결정들에 대해 책임을 져야 한다. 다만 포괄적이고 투명하게 진행된다면 그러한 결정 과정 역시 알고리즘에 의해 코딩될 수도 있다. 니쉬케에게 조력자살은 도덕적인 결정이자 개인들이 스스로 내려야 할 결정이다. 사르코와 니쉬케가 꿈꾸는 이론상의 알고리즘은 바로 개인이 내리는 이 결정을 보호해줄 뿐이다.

인구가 늘어나고 자원이 부족해지면서 AI의 활용성이 지속적으로 커질 것이고, 어쩌면 그것이 우리에게 없어서는 안 될 툴이 될 수도 있다. 하지만 본질적으로 AI가 내리게 되는 결정의 끔찍함과 독단성을 인정하는 것이 중요하고, 그것은 다름 아닌 우리의 책임이다.

로빈슨이 보기에 알고리즘 개발은 법률안 마련과 유사하다.

“어떤 면에서 사람들을 지배하는 가장 적절한 소프트웨어 코드를 만든다는 것은 가장 적절한 법을 만드는 것의 특이한 케이스라고 볼 수 있다. 사람들은 고위험 소프트웨어를 만드는 여러 방법의 장점에 대해 동의하지 않는다. 이는 법을 도입하는 여러 방식의 장점에 대해 동의하지 않는 것과 똑같다.”

그리고 넓게 보면 법에 대한 최종 책임은 사람들에게 있다.

미리보기 2회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.