OpenAI’s new GPT-4o lets people interact using voice or video in the same model

오픈AI, 음성과 동영상으로 사람과 실시간 소통 가능한 GPT-4o 출시

오픈AI가 기존 GPT4 모델의 성능을 대폭 개선한 새 AI 모델 GPT-4o를 출시했다.

오픈AI가 구글의 I/O 행사 하루 전인 13일(현지시간) 실시간 음성 대화, 휴대폰 비디오 스트림, 문자를 통해 실시간으로 소통할 수 있는 새로운 인공지능(AI) 모델 GPT-4o를 선보였다.

GPT-4o은 향후 몇 주에 걸쳐 출시될 예정이며, 모든 사용자에게 GPT 앱과 웹 인터페이스를 통해 무료로 제공될 예정이다.

미라 무라티(Mira Murati) 오픈AI 최고기술책임자(CTO)가 이 새로운 버전의 GPT-4o에 대한 라이브 시연을 이끌었다.

GPT-4도 GPT-4o와 마찬가지로 사용자가 오픈AI의 AI 제품과 상호작용할 수 있는 다양한 방법을 제공했다. 그러나 이러한 기능들이 각기 별도의 모델로 분리돼 있어 응답 시간이 길어지고 컴퓨팅 비용이 높아지는 문제가 있었다. 하지만 이제 GPT-4o는 기능들을 단일 모델로 통합했다. 무라티는 이를 ‘옴니모델’이라고 불렀다. 이로 인해 응답 속도는 빨라지고, 작업 간 전환이 더 원활해졌다는 게 그녀의 설명이다.

이런 옴니모델 덕분에 애플의 시리나 아마존의 알렉사 같은 다른 AI 비서와 매우 유사하지만 훨씬 더 복잡한 프롬프트(지시)를 처리할 수 있는 대화형 비서가 탄생했다는 걸 이날 열린 시연을 통해 알 수 있었다.

무라티는 시연에 대해 “우리는 미래의 인간과 기계 간의 상호작용을 목격하고 있다”면서 “GPT-4o는 훨씬 더 자연스럽게 이러한 상호작용이 일어나는 협업의 미래로 패러다임을 전환시켜줄 것”이라고 말했다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!