ChatGPT is OpenAI’s latest fix for GPT-3. It’s slick but still spews nonsense

‘챗GPT’는 여전히 ‘헛소리’를 토해낸다

오픈AI가 최근 발표한 대규모 언어모델 ‘챗GPT’는 여전히 거짓 정보를 생성한다. 그래도 자신이 내놓은 답변에 담긴 실수를 스스로 인정할 수 있다.

샌프란시스코에 위치한 오픈AI(OpenAI)의 획기적 대규모 언어모델 GPT-3의 후속 모델에 해당하는 GPT-4에 대한 소문이 증가하고 있다. 그러나 오픈AI는 아직 GPT-3의 수정 작업도 제대로 끝마치지 못한 상태이다.

오픈AI는 최근 GPT-3를 살짝 변형한 ‘챗GPT(ChatGPT)’라는 새로운 모델의 데모를 공개했다. 챗GPT는 사용자와 주고받는 대화에서 질문에 답하도록 설계된 언어모델이다. 오픈AI는 블로그 게시글을 통해 “챗GPT가 대화 형식으로 추가적인 질문에 답하고 실수를 인정하며 정확하지 않은 전제에 대해서는 이의를 제기하고 부적절한 요청을 거부할 수 있다”고 설명했다.

오픈AI의 설명처럼 챗GPT에서 부정확한 답변과 실수들 중 일부가 해결된 것처럼 보였다. 그렇지만 필자가 직접 모델을 실험해 본 결과 문제점들은 완전히 마무리되지 않았다. 이런 모습은 GPT-3가 GPT-4의 단계로 발전하더라도 부정확한 답변을 내놓는 문제점이 여전히 해결되지 못할 수 있음을 시사한다.

챗GPT는 메타(Meta)가 최근에 공개했던 과학용 대규모 언어모델 갤럭티카(Galactica)와 마찬가지로 이야기를 생성할 때 문제점이 드러난다. (갤럭티카는 공개한 이후 3일 만에 여러 문제점이 드러나서 비공개로 전환됐다.) 오픈AI의 존 슐먼(John Schulman)은 “일부 문제점에 대해서는 어느 정도 진전을 이루었지만, 문제를 완전히 해결하려면 아직 갈 길이 멀다”고 설명했다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!