Why GPT-3 is the best and worst of AI right now

오픈AI의 GPT-3 이해하기

오픈AI가 자사의 대표적 언어모델 GPT-3의 문제점을 개선한 새 버전, ‘인스트럭트GPT’를 선보였다. 인스트럭트GPT의 배경이 되는 GPT-3를 다시 조명한다.

※ 이 글은 GPT 새로운 버전에 대한 이해를 돕기 위하여 2021년 3월 8일 실린 ‘AI의 명암을 모두 담은 소우주, GPT-3’의 핵심내용을 각색하여 작성되었습니다

딥마인드(DeepMind)의 알파고(AlphaGo)나 IBM의 체스 AI 딥블루(DeepBlue) 이후로 GPT-3만큼 대중의 상상력을 자극하며 관심을 사로잡은 AI는 없었을 것이다.

샌프란시스코에 본사를 둔 인공지능 연구소 오픈AI가 제작한 ‘대형언어모델(large language model)’ GPT-3는 딥러닝(deep learning)을 이용하는 알고리즘으로, 책이나 인터넷에 있는 수많은 텍스트를 학습하여 단어와 구절을 연결해 텍스트를 생성한다. 2020년에 처음 출시됐을 때 GTP-3가 인간의 글을 무서울 정도로 실제에 가깝게 모방하자 많은 이들은 드디어 진정한 기계지능(machine intelligence)으로 향하는 문이 열렸다고 생각했다.

GPT-3는 마치 인간이 쓴 것처럼 보이는 복잡한 문장을 만들어낼 수 있다. GPT-3가 만들어내는 글에는 문화적 맥락도 포함되어 있으며, 과학자들이 실제로 보였을 법한 그럴듯한 반응도 들어있다. 이런 식으로 언어를 사용할 수 있는 기계가 중요한 이유에는 몇 가지가 있다. 우선 언어는 일상 세계를 이해하는 데 필수적이다. 인간이 의사소통을 하거나 생각을 나누고 개념을 설명할 때 언어를 사용하기 때문이다. 따라서 언어를 완벽하게 익힌 AI는 언어를 학습하는 과정에서 세상을 더 제대로 이해하는 법도 습득할 수 있을 것이다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!