The new version of GPT-3 is much better behaved (and should be less toxic)

가짜 정보 줄이고 언어 표현 순화한 GPT-3 새 버전 나왔다

오픈AI가 대표적인 대형언어모델 GPT-3의 새 버전을 출시했다. 이번 언어모델은 이용자의 명령에 따라 텍스트를 생성할 수 있도록 학습했기 때문에 혐오 발언처럼 원하지 않는 텍스트가 생성되는 것을 줄일 수 있다. 그러나 더 완벽한 언어모델을 만들기 위해서는 아직 갈 길이 멀다.

샌프란시스코에 본사를 둔 인공지능 연구소 오픈AI(OpenAI)가 언어모델의 판도를 바꿔 놓은 자사의 대표적 언어모델 GPT-3의 문제점을 개선한 새 버전을 개발했다. ‘인스트럭트GPT(InstructGPT)’라는 이름의 이번 버전은 기존 언어모델과 달리 언어모델 이용자의 명령에 따라 텍스트를 생성한다. 이를 AI 업계 용어로는 ‘정렬, alignment’이라고 한다. 이에 따라 특별히 명령하지 않는 한 기존 언어모델처럼 불쾌한 언어를 사용하거나 가짜 정보를 보여주는 일이 적으며, 전체적으로 실수도 줄었다는 게 오픈AI 측 설명이다.

GPT-3 같은 대형언어모델들은 주로 인터넷에서 수집한 방대한 텍스트를 이용해 학습하는데, 이러한 텍스트에는 사람들이 내뱉는 좋은 말과 나쁜 말이 뒤섞여 있다. 이렇게 문제의 소지가 있는 텍스트까지 학습 자료로 이용하는 것이 현재 챗봇이나 텍스트 생성 모델들이 겪는 문제이다. AI 모델들은 인종차별이나 여성혐오 텍스트부터 각종 편견이 내재된 텍스트와 거짓 정보가 가득한 텍스트까지 유해한 텍스트를 다량으로 학습하게 된다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!