
보건의료 분야에도 인공지능이 침투하고 있다
인공지능이 의료 상담을 해준다면 그 조언에 따르겠는가? 인공지능 기술이 다양한 질병을 진단할 수 있다는 소식이 연일 보도되는 가운데 최근 떠오르는 질문이다. 이 질문의 기저에는 인공지능이 인간 의료 전문가보다 더 정확하고 빠르며 저렴하다는 의식이 깔려있다.
이러한 기술 중 상당수는 잘 알려진 문제점을 안고 있다. 먼저 인공지능은 제한적이고 편향된 데이터를 학습하기 때문에 백인 남성 환자에 비해 여성이나 유색인종의 경우에는 잘 작동하지 않을 때가 많다. 그뿐 아니라 이러한 시스템은 완전히 틀린 내용의 데이터를 학습하기도 한다.
또 다른 문제도 있다. 보건의료 환경에 인공지능 기술이 침투하기 시작하면서 연구자들은 ‘AI 온정적 간섭주의(AI paternalism)’가 늘고 있다고 지적한다. 의료 온정적 간섭주의 혹은 부권주의라고 불리는 문제는 의사라는 직업이 생긴 이래 계속해서 문제가 되어 왔다. 하지만 이제 의사들은 자신의 임상적 판단뿐만 아니라 환자의 직접적인 경험을 무시하면서까지 AI를 신뢰하려 할지 모른다.(번역주: 온정적 간섭주의(Paternalism)란 한 개인에게 도움이 된다는 명목 하에 다른 주체가 그 개인을 보호 및 통제하는 행위나 입장을 말한다. 비슷한 맥락에서 의료 온정적 간섭주의는 선한 목적을 가진 의료 전문인이 환자의 자율성보다 우선하여 환자를 치료하는 것을 의미한다.)
AI는 보건의료 분야에서 이미 활용되고 있다. 일부 병원에서는 환자를 분류하는 데 AI를 사용한다. 어떤 이들은 진단이나 치료 계획을 세우기 위해 사용한다. 하지만 영국 옥스퍼드 대학교(University of Oxford)의 기술 및 규제학 교수 산드라 와처(Sandra Wachter)에 의하면 AI의 실제 도입 범위는 불분명하다.
와처는 “실제로 어떤 시스템이 사용되고 있는지 파악되지 않는 경우도 있다”라고 말한다. 그러나 기술이 발전하고 의료 시스템이 비용 절감을 위한 방안을 모색함에 따라 이러한 AI 활용은 계속 늘어날 것이라고 그녀는 말한다.
연구에 따르면 의사들은 이미 이러한 기술을 상당히 신뢰하고 있다. 몇 년 전 발표된 한 연구에서는 종양학자들에게 피부 병변을 보여주고 암 진단을 내리도록 한 다음, 이를 AI 시스템이 내린 진단과 비교하도록 했다. 그 결과 이들 중 다수가 자신의 임상적 소견과 상반되는 경우에도 AI가 내린 진단을 받아들였다.
사람들이 이러한 기술에 필요 이상으로 의존하리라는 위험성은 매우 실질적으로 다가온다. 그리고 이 대목에서 온정적 간섭주의가 개입할 수 있다.
캐나다 온타리오주 아픈어린이병원(Hospital for Sick Children)의 멜리사 맥크래든(Melissa McCradden)과 록산 커쉬(Roxanne Kirsch)는 최근 <네이처 메디슨(Nature Medicine)>에 발표한 논문에서 “온정적 간섭주의는 ‘의사가 가장 잘 안다’라는 관용구에서도 잘 드러난다”라고 말한다. 이는 환자의 감정, 신념, 문화 등 스스로 치료법을 선택하는 데 영향을 미칠 수 있는 모든 요소의 우위에, 전문적인 수련을 받은 의사야말로 환자를 위해 최선의 결정을 내릴 수 있는 사람이라는 사고가 깔려있다.
맥크래든과 커쉬는 “의료 AI가 최상위 수준의 증거가치로 인정받게 되어 ‘전지적 의사’가 ‘전지적 AI’로 대체될 때, 우리는 온정적 간섭주의의 재현을 보게 될 것이다”라고 말한다. 이어서 그들은 “알고리즘적 간섭주의의 경향이 강해지고 있다”라고 강조한다. 이는 여러 가지 면에서 문제가 될 수 있다.
우선 앞서 언급했듯이 AI는 결코 완벽하지 않다. 이러한 기술들은 자체적인 결함을 가진 과거의 데이터 세트를 기반으로 학습한다. 와처는 “알고리즘을 의과대학에 보내 인체와 질병을 공부하도록 가르치는 게 아니다”라고 전한다. 맥크래든과 커쉬는 그 결과 “AI는 이해가 아닌 예측을 하게 된다”고 말한다. 한 예로 AI를 피부세포 조직 검사에서 나타나는 특정 패턴과 암 진단 사이의 관련성을 학습하도록 훈련시킨다고 하자. 문제는 이 AI의 학습 데이터를 만들고 진단을 내린 의사들이 유색인종 사례를 연구하는 데 미흡했을 수 있다는 점이다.
또한 AI로 과거의 추세를 파악한다고 해서 의사가 앞으로 환자를 치료할 방법에 대한 모든 정보가 주어진다고 볼 수는 없다. 오늘날 의사와 환자는 서로 협력하여 치료법을 결정해야 한다. AI의 발전으로 인해 환자의 자율성이 침해되어서는 안 된다.
그렇다면 이를 어떻게 하면 예방할 수 있을까? 한 가지 가능한 해결책은 더 나은 데이터로 학습한 AI 기술을 설계하는 것이다. 예를 들어 다양한 공동체의 신념 및 소망에 관한 정보와 여러 가지 생물학적 데이터를 기반으로 학습한 새로운 알고리즘을 개발할 수 있다. 하지만 이를 위해서는 먼저 실제 데이터를 수집해야 하는데, 이 과정에서 큰 비용이 들기 때문에 비용 절감 목적으로 AI를 사용하려는 사람들에게는 이 방법이 매력적이지 않을 것이라고 와처는 말한다.
이러한 AI 시스템을 설계하는 입장에서 AI가 진단할 환자들에게 필요한 것을 신중하게 고려해야 한다. 또한 환자들의 생물학적 특성이나 신념 등에 따라 일부 집단에 적합한 기술이 다른 집단에서 부적합할 수 있다는 점을 명심해야 한다. 와처는 “인간은 모든 곳에서 똑같지는 않다”라고 말한다.
가장 좋은 방법은 기존에 잘 정립된 기술을 사용하는 것과 같은 방식으로 새로운 기술을 사용하는 것이다. 엑스레이와 MRI는 다른 건강 정보와 더불어 환자의 건강을 진단하는 데 도움이 된다. 이때 환자들은 촬영 여부와 촬영 결과물을 활용할 방법에 대한 선택권을 갖는다. 이와 같은 방식으로 인간은 자율성을 포기하지 않고도 AI를 활용할 수 있다.