Google is throwing generative AI at everything

구글이 모든 영역에 생성형 AI를 도입하고 있다

5월 10일 구글이 I/O 콘퍼런스에서 생성형 AI 도입을 발표했다. 전문가들은 결함을 수정하기도 전에 일반을 대상으로 이러한 모델을 출시하는 것은 구글에 큰 위험을 초래할 수 있다고 말한다.

구글은 현지 시각 5월 10일 미국에서 열린 연례 구글 개발자 콘퍼런스(I/O conference)에서 기존 구글 서비스에 강력한 새 AI 도구를 탑재하고, 코딩 어시스턴트를 포함한 신제품을 대거 출시한다고 발표했다.

수억 명의 사용자가 곧 구글 맵(Maps), 구글 독스(Google Docs), 지메일(Gmail), 구글 시트, 챗봇 바드(Bard) 등 25개 이상의 제품에 통합된 구글의 최신 AI 언어모델 PaLM 2를 경험하게 될 것이다. 예를 들어, 사용자가 구글 독스 내 텍스트 상자에 ‘직무 설명 작성’과 같은 요청을 입력하면, AI 언어모델은 사용자가 맞춤 설정할 수 있는 텍스트 템플릿을 생성해준다.

구글은 안전 및 평판의 위험 때문에 경쟁사에 비해 AI 기반 제품을 늦게 출시해 왔다. 미국 워싱턴 대학교의 컴퓨터과학 교수인 쉬락 샤(Chirag Shah)는 “경쟁사인 마이크로소프트, 오픈AI 등과 치열한 경쟁으로 인해 구글 역시 AI 제품을 출시할 수밖에 없었다”고 말한다.

AI 언어모델에는 알려지지 않은 수많은 결함이 있고 이를 수정할 방법이 없다는 점을 고려하면, 구글의 선택은 매우 위험한 전략이다. 전문가들은 이러한 결함을 제품에 심어 놓으면 역효과를 일으킬 수 있으며, 점점 더 강경해지는 규제 당국과 충돌할 수 있다고 경고한다.

구글은 챗GPT의 경쟁 모델인 바드(Bard)의 사용 권한을 미국 및 영국의 선별 그룹 대상에서 180여 개국의 일반 대중으로 사용 권한을 넓혔다. 구글은 ‘곧’ 바드에 프롬프트로 단어뿐만 아니라 이미지도 입력할 수 있고, 바드가 받은 질문에 사진으로 답변할 수도 있게 할 예정이다. 또 구글은 사람들이 코드를 생성하고 디버깅할 수 있는 AI 도구도 출시한다고 밝혔다.

구글은 수년간 텍스트 번역 및 음성 인식과 같은 제품에 AI 기술을 사용해 왔다. 하지만 이번 출시는 최신 AI 기술을 다양한 제품에 통합하기 위한 구글의 가장 큰 시도이다.

구글 딥마인드(DeepMind)의 부사장인 주빈 가라마니(Zoubin Ghahramani)는 MIT 테크놀로지 리뷰에 “[AI 언어모델]의 기능은 점차 향상되고 있다. 기존 제품에 통합할 수 있는 영역도 더 많아지고 있으며, 우리는 대담하면서도 책임감 있는 방식으로 사람들에게 가치를 제공할 수 있는 실질적인 기회를 모색하고 있다”고 말했다.

가라마니는 “구글에 있어 지금 이 순간은 AI를 사람들이 손에 쥐었을 때의 영향력을 목도하는 시점이다”라고 말하면서 사람들이 이런 AI 도구에 익숙해져서 평범한 일상 가운데 자리 잡기를 바란다고 전했다.

원스톱(one-stop) 상점

구글의 이번 발표는 마이크로소프트, 오픈AI, 메타(Meta) 등의 빅테크 기업과 스태빌리티AI(Stability.AI) 같은 오픈소스 그룹과의 경쟁 상황에서 나온 것이다. 이들은 텍스트를 요약하고 사람들의 질문에 유창하게 답변하며, 심지어 단어 프롬프트에서 이미지와 비디오를 생성하는 인상적인 AI 도구를 출시하기 위해 경쟁을 펼치고 있다.

샤 교수는 구글이 업데이트된 AI 기반 제품 및 기능을 통해 개인뿐만 아니라 스타트업, 개발자, 기업을 겨냥하고 있다고 말한다. 이 타깃은 모델과 코딩 어시스턴트, 기업 소프트웨어 사용료를 지불할 의향을 가진 자들이다.

샤는 “원스톱(one-stop) 상점이 되는 것은 구글에 매우 중요한 일”이라 강조한다.

구글은 AI 언어 기술을 코딩 어시스턴트로 활용해 사람들이 코드를 생성 및 완성하고 챗봇과 대화하며, 디버깅 및 코드와 관련된 질문에 대한 도움을 받을 수 있도록 하는 새로운 기능과 모델을 공개했다.

문제는 구글이 탑재한 대형 언어모델이 말을 지어내는 경향이 있다는 것이다. 구글은 미국 및 영국에서 시범용 바드를 출시한다고 발표할 당시 이러한 문제를 직접 경험했다. 이 챗봇에 대한 자체 광고에 사실 오류가 포함되어 있었고, 구글은 주가가 수십억 달러 폭락하는 망신을 당했다.

AI 스타트업 허깅페이스(Hugging Face)의 AI 연구원 샤샤 루치오니(Sasha Luccioni)는 구글이 새롭고 흥미로운 AI 제품을 출시하는 것과 기술 재현을 구현하는 과학적 연구 수행 및 외부 연구자들의 기술을 감사하고 안정성을 테스트하는 일 사이의 절충점을 찾아야 한다고 말한다.

과거에 구글은 더 개방적인 접근 방식을 취해왔고, 2018년 BERT와 같은 언어모델을 오픈소스화했다. 루치오니는 “하지만 시장과 오픈AI의 압박으로 인해 구글은 모든 것을 바꾸고 있다”고 우려한다.

루치오니는 코드 생성 기능이 위험한 이유는 사용자들이 AI가 일으키는 오류를 발견할 수 있을 만큼 프로그래밍에 숙련되어 있지 않기 때문이라고 말한다. 이는 버그가 있는 코드 생성 및 소프트웨어 고장으로 이어질 수 있다. 그리고 AI 언어모델이 현실 세계에 대한 조언을 하기 시작할 때 잘못된 일이 벌어질 수도 있다.

가라마니 또한 기업이 이런 도구를 사용하고자 할 때는 주의해야 한다고 경고하며, 제품을 맹목적으로 신뢰하기보다는 결과를 철저히 확인해야 한다고 당부한다.

가라마니는 “이 모델들은 매우 강력하다. AI 기반 모델들이 결함이 있는 무언가를 생성하는 경우, 생성된 결과물을 받아들여 이를 기업의 미션 크리티컬 소프트웨어(mission-critical software, 작은 결함으로도 전체 시스템에 막대한 피해를 미칠 수 있는 시스템)에 통합할지의 여부를 고려해야 한다”라고 말한다.

최신 기술을 잘 알고 기술에 능통한 사람도 거의 이해하지 못하는 AI 언어모델 관련 위협들도 있다. AI로 생성한 텍스트와 이미지가 점점 더 많아지는 경우, 이를 감지하기 어렵기 때문에 이러한 도구가 허위 정보나 대규모 사기에 이용될 수도 있다.

대형 언어모델 기반 모델은 ‘탈옥(jailbreak)’이 쉬워 사람들에게 불법적인 행위를 지시하는 등 자체 정책을 위반할 우려가 있다. 또 이러한 모델이 웹 브라우저에 통합될 경우 해커의 공격에도 취약해지는데 이 문제를 해결할 방법 또한 알려진 바가 없다.

가라마니는 구글이 AI 모델의 안정성을 개선하기 위해 정기 테스트를 시행하고 있으며, 사람들이 유해한 콘텐츠를 생성하지 못하도록 하는 제어 기능을 탑재했다고 말했다. 하지만 그는 이러한 취약성과 챗봇이 헛소리를 생성하는 ‘환각(hallucination)’ 문제를 아직 해결하지 못했다고 인정했다.

힘겨운 런칭

생성형 AI에 올인하는 것은 구글에 역효과를 가져올 수 있다. 기술 기업들은 현재 AI 제품에 대한 규제당국의 강화된 조사에 직면해 있다. 유럽연합(EU)은 유럽연합 최초의 AI 법안을 마무리 짓고 있으며, 미국에서는 백악관이 구글, 마이크로소프트, 오픈AI의 리더를 소집해 책임감 있는 AI 개발의 필요성을 논의하고 있다. 연방거래위원회(Federal Trade Commission)와 같은 미국 연방 기관은 AI가 초래할 수 있는 위험에 더 많은 주의를 기울이고 있다는 신호를 보낸다.

샤 교수는 AI와 연관된 우려 가운데 일부가 사실로 드러난다면, 규제 당국이나 법안 작성자들이 실제 구글에 책임을 물을 수 있는 근거를 제공하는 셈이라고 말한다.

그러나 구글은 기업 소프트웨어 시장을 지배하기 위한 싸움에서 경쟁사에 밀려나는 위험을 감수할 생각이 없을 것이라고 샤 교수는 강조했다. 샤 교수는 “이는 그들이 만든 전쟁이다”라며 현재로서는 “그들을 막을 방법은 거의 없다”고 전했다.

미리보기 2회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.