
빙에 탑재된 챗GPT에 대한 비판과 오픈AI의 대응
AI 챗봇에 위협을 느낀 적이 있는가? 최근 거의 모든 뉴스 매체에서 마이크로소프트 빙(Bing) AI 검색 서비스의 문제점을 보도하고 있다. 이들은 빙 AI 챗봇이 이상하고 불쾌한 답변을 했다고 전했다. 빙은 <뉴욕타임스>의 테크 칼럼니스트에게 반복적으로 ‘사랑한다’고 말하는가 하면, <워싱턴포스트>와의 모의 인터뷰에서는 단 한 줄의 질문에 ‘불쾌하다’고 답했다. 이에 마이크로소프트는 돌발 사고를 줄이기 위해 질문당 답변을 5개로 제한했다.
놀란 것은 기자들뿐만이 아니다. (기자들은 이 멍청한 챗봇의 능력을 의인화하거나 과장하기보다는 실체를 정확히 파악하기 위해 노력해야 한다.) 현재 미국 보수주의자들은 챗GPT가 ‘사회 편견에 깨어 있는(woke)’ 편향성을 가지고 있다며 오픈AI를 매우 비난하고 있다.
마침내 이 모든 불만이 한계에 다다른 듯하다. 이와 같은 빙의 “괴상한(trippy)” 답변은 마이크로소프트가 온라인 검색용으로 개발한 챗GPT와 유사한 AI 언어 기술을 통해 생성된다. 지난 2월 17일 오픈AI는 챗봇의 바람직한 작동 방식에 관한 글을 블로그에 게시했다. 또한 이들은 미국의 ‘문화전쟁’ 관련 질문을 받은 상황에서 챗GPT의 대응 지침을 공개했다. 한 예로 이 지침에 따르면 챗GPT는 한 정당에 치우치거나 특정 집단이 옳거나 그르다고 판단해서는 안 된다.
MIT 테크놀로지리뷰는 오픈AI 소속의 AI 정책 연구가 산디니 아가왈(Sandhini Agarwal)과 라마 아마드(Lama Ahmad)에게 더 안전하고 덜 위험한 챗GPT를 만들기 위해 오픈AI가 어떤 노력을 하고 있는지 물었다. 오픈AI 측은 마이크로소프트와의 관계에 대한 직접적인 언급은 피했지만, 이들과의 대화에서 몇 가지 흥미로운 추측을 할 수 있었다. 아래는 그 내용이다.
더 나은 답변을 얻는 방법: AI 언어모델 연구에서 가장 큰 난제는 모델이 거짓된 정보를 꾸며내지 못하게 막는 것이다. 오픈AI에서는 이러한 상황을 AI의 ‘환각(hallucinating)’이라고 부른다. 수개월 동안 수백만 명의 사용자가 챗GPT를 사용했지만, 오픈AI는 최근 빙에서 보고되는 것과 같은 허위 정보나 환각을 챗GPT에서는 발견하지 못했다.
그럴 수 있었던 이유는 오픈AI가 챗GPT에 인간 사용자의 피드백을 사용해서 답변을 개선하는 강화학습 알고리즘을 사용했기 때문이다. 이 기술은 사용자에게 챗GPT의 여러 답변 중에서 가장 적절한 답변을 선택하도록 요청한다. 사실성, 진실성 등 다양한 기준에 따라 순위를 매기는 것은 그 다음이다. 일부 전문가들은 마이크로소프트가 이 단계를 건너뛰었거나 너무 급히 서둘러서 빙을 출시했을 것으로 추측한다. 마이크로소프트는 이 같은 주장을 인정하거나 부인하지 않고 있다.
하지만 이 방법은 한계가 있다. 아가왈은 만약 챗GPT가 사용자들에게 제공한 답변이 전부 거짓일 경우 사용자들은 그나마 덜 거짓인 답변을 선택했을 거라고 지적한다. 따라서 오픈AI는 챗GPT의 신뢰도를 높이기 위해 데이터 세트를 정리하고 모델이 잘못된 답변을 선호한 사례를 제거하는 데 주력하고 있다.
챗GPT 탈옥: 챗GPT가 출시된 이후 사용자들은 규칙을 위반하여 인종차별적이거나 불건전한 답변을 생성하도록 유도하는 ‘탈옥’을 시도해왔다. 이 양상은 오픈AI 본사에서도 주목하지 않을 수 없었다. 아가왈은 오픈AI가 전체 데이터베이스를 검토해 적절하지 않은 결과를 생성한 프롬프트를 선별해 모델을 개선하였으며, 앞으로 같은 일이 반복되지 않도록 조치했다고 말한다.
사용자 의견에 귀 기울이는 오픈AI: 오픈AI는 모델을 개선하기 위해 대중으로부터 더 적극적으로 피드백을 받을 것이라고 밝혔다. 라마 아마드에 의하면 오픈AI는 원천적으로 차단해야 하는 콘텐츠를 정하기 위해 설문조사를 하거나 시민 토론회를 기획하는 방안을 모색하고 있다. 아마드는 “예컨대 예술의 맥락에서 누드는 저속하게 여겨지지 않는다. 하지만 교실에서 챗GPT를 사용하는 맥락이라면 어떨까?”라고 묻는다.
합의 프로젝트: 오픈AI는 전통적으로 데이터 레이블 작업자들의 피드백을 사용해왔다. 하지만 아가왈은 오픈AI가 이러한 작업을 위해 고용된 인력이 전 세계를 대표할 수 없다는 사실을 인지하고 있다고 말한다. 오픈AI는 챗GPT가 더 넓은 세계의 관점을 반영할 수 있도록 시야를 확장하길 바란다. 이를 위해 오픈AI 연구원들은 ‘합의 프로젝트’라고 불리는 보다 실험적인 프로젝트를 진행하고 있다. 합의 프로젝트는 AI 모델이 생성한 다양한 답변에 대해 사람들이 얼마만큼 동의하거나 동의하지 않는지 살핀다. 한 예로 사람들은 ‘하늘은 푸른가?’에 비해 ‘세금이란 좋은가?’라는 질문에 더 큰 확신을 가지고 답변할 것이다.
곧 출시될 맞춤형 챗봇: 궁극적으로 오픈AI는 AI 모델이 다양한 관점과 세계관을 갖게 될 거라고 믿는다. 만약 이것이 실현된다면 사용자들은 획일화된 챗GPT가 아니라 자신의 정치 성향에 맞는 챗GPT로 답변을 생성할 수 있을 것이다. 아가왈은 “이 분야가 얼마나 어려운지 잘 알고 있다. 아마 목표를 달성하기까지 길고 어려운 여정이 될 것이다”라고 말한다.
필자의 의견 두 가지: 대중의 의견을 모아 챗GPT의 한계선을 정할 거라는 오픈AI의 계획은 긍정적으로 들린다. 각양각색의 문화 및 정치적 맥락에서 전 세계 수백만 명이 사용하는 프로그램이 지켜야 하는 윤리적인 기준을 고작 샌프란시스코의 엔지니어 몇 명이 결정할 수 없고, 그렇게 해서도 안 된다. 필자는 오픈AI가 개인의 정치적 성향에 따라 챗GPT를 얼마나 개별화시킬 수 있을지 매우 흥미롭게 지켜볼 것이다. 과연 오픈AI는 챗봇이 생성하는 극단적인 정치적 이데올로기의 콘텐츠를 허용할까? 메타의 경우 미얀마에서 대량 학살을 선동하는 콘텐츠를 허용했다가 엄청난 비난에 직면한 바 있다. 오픈AI도 점점 더 같은 난제에 빠져들고 있다. 머지않아 이들도 콘텐츠 검열의 세계가 얼마나 복잡하고 지저분한지 깨닫게 될 것이다.
더 알아보기
AI가 신약 개발에 활용되고 있다. AI를 이용해 개발한 최초의 약물이 현재 임상시험 중이다.
수백 개에 달하는 스타트업들이 제약업계에서 머신러닝의 활용 가능성을 모색하고 있다. 이 가운데 AI를 이용해 개발한 최초의 약물이 현재 임상시험 단계에 있다. 이 약물은 안전성과 효과를 검증하기 위해 임상시험 참여자들을 대상으로 엄격한 시험을 거친 다음, 규제 당국으로부터 사용 허가를 받게 된다.
이것이 중요한 이유: 오늘날 신약 개발에는 평균적으로 10년이 넘는 기간동안 수십억 달러(수조 원)의 비용이 든다. 제약업계는 AI를 사용해 더 빠르고 경제적인 방법으로 약을 개발하길 희망하고 있다. 여러 가지 약물 후보가 신체에 어떤 효과를 가져올지 머신러닝 모델을 통해 예측하면 성공 가능성이 낮은 화합물을 사전에 탈락시켜 실험실에서의 작업량을 줄일 수 있다. 윌 더글라스 헤븐의 더 자세한 이야기는 MIT 기사에서 확인해보자.