
Sarah Rogers/MITTR | Getty Images
There are more AI health tools than ever—but how well do they work?
일상 파고든 헬스케어 AI…편의성 뒤 ‘검증 공백’ 우려
마이크로소프트와 아마존, 오픈AI 등이 일반 소비자용 헬스케어 AI를 잇달아 출시하며 시장이 빠르게 확대되고 있다. 다만 의료 영역 특성상 독립적 검증과 사용자 안전성 확보가 여전히 핵심 과제로 지적된다.
마이크로소프트는 3월 초 ‘코파일럿 헬스(Copilot Health)’를 출시하고, 코파일럿 앱 내에서 사용자가 자신의 의료 기록을 연동해 건강 관련 질문을 할 수 있는 기능을 선보였다. 이에 앞서 아마존도 자사의 ‘원 메디컬(One Medical)’ 회원에게만 제공하던 대형언어모델(LLM) 기반 도구 ‘헬스 AI(Health AI)’를 일반 사용자에게 확대 공개한다고 발표했다.
이들 서비스는 지난 1월 오픈AI가 내놓은 ‘챗GPT 헬스(ChatGPT Health)’와 사용자 동의를 전제로 건강 기록에 접근할 수 있는 앤트로픽의 ‘클로드’와 함께 헬스케어 AI 시장에 합류했다. 일반 대중을 겨냥한 ‘헬스 AI’가 하나의 흐름으로 자리 잡고 있는 모습이다.
기존 의료 시스템을 통해 건강 상담을 받기 어려운 현실을 고려하면 건강 조언을 제공하는 챗봇에 대한 수요는 분명하다. 실제로 일부 연구에서는 현재의 LLM이 비교적 안전하고 유용한 조언을 제시할 수 있다는 결과도 나오고 있다.
다만 연구자들은 이러한 기술이 대중에게 널리 보급되기 전 독립적인 전문가들에 의한 보다 엄격한 검증이 필요하다고 지적한다.
건강처럼 민감한 영역에서 기업이 자사 제품을 자체 평가하는 방식은 한계가 있을 수 있으며, 특히 그 결과가 외부에 충분히 공개되지 않을 경우 신뢰성 문제가 제기될 수 있다. 또 일부 기업들이 비교적 엄격한 연구를 진행하고 있는 것은 사실이지만, 외부 연구 커뮤니티가 보완할 수 있는 사각지대가 여전히 존재할 수 있다.