An early guide to policymaking on generative AI

생성 AI 관련 정책에 대한 미국과 유럽의 가이드 현황

생성형 AI가 불러온 기술 혁명은 우리가 지금껏 경험하지 못했던 위험들을 불러오고 있다. 거버넌스 관점에서 생성형 AI 혁명에 대한 대응 방안과 현황을 살펴봤다.

최근 워싱턴 D.C.의 한 정책학 교수와 대화하면서 그녀의 학생과 동료들이 다 GPT-4와 생성형 AI에 대해 관심을 기울이고 있다는 이야기를 들었다. 그들이 궁금해하는 것은 과연 무엇을 읽어야 하는지, 얼마만큼의 관심을 가져야 할지 같은 것이었다. 

그녀는 내게 이러한 것들을 질문하면서 정책 입안자들이 생성형 AI 기술의 발전을 어떻게 받아들여야 할지 물어왔다. 이 주제에 대해 며칠 동안 관련 자료를 읽고 전문가들과 이야기를 나누며 숙고한 결과를 기사에 담았다.


GPT-4가 주로 언급되고 있으나 이는 지난 몇 달간 세간의 이목을 끌며 출시되었던 여러 생성형 AI 중 하나일 뿐이다. 최근 구글, 엔비디아, 어도비, 바이두 모두 자체 프로젝트를 발표했다. 요컨대 생성형 AI는 어디서나 화제가 되고 있다. 생성형 AI가 완전히 새롭게 등장한 기술은 아니지만, 이 기술의 정책적 함의를 이해하기 위해서는 수년까지는 아니더라도 최소한 수개월이 걸릴 것이다.

지난 2023년 3월 오픈AI(OpenAI)가 발표한 GPT-4는 딥러닝을 통해 문장의 단어들을 예측하는 멀티모달 대형 언어모델이다. GPT-4는 놀라울 정도로 유창하게 언어를 구사하며 문자 기반 프롬프트뿐만이 아닌 이미지 프롬프트에도 응답한다. GPT-4는 유료 상용 프로그램에 통합된 챗GPT에도 곧 탑재될 예정이다.

이번 버전은 매우 큰 파장을 불러일으켰다. 빌 게이츠는 이를 두고 한 서한에서 ‘혁명적’이라고 표현했다. 그러나 어떤 이들은 GPT-4의 학습 방식이나 편향성 평가 방법에 대한 투명성이 부족하다며 오픈AI를 비판하기도 했다.

수많은 기대에도 불구하고 생성형 AI에는 상당한 위험이 따른다. 일단 생성형 AI 모델은 인터넷이라는 유해물 가득한 환경에서 학습되기 때문에 종종 인종차별이나 성차별적인 결과물을 내놓는다. 또 거짓된 내용을 지어내 확신에 차서 주장하는 경우도 많다. 잘못된 정보를 제공한다는 점에서 이러한 문제는 더 심각한 일로 번질 수 있으며, 사기의 설득력을 높여 범죄가 더 빠르게 확산하는 데 악용될 수 있다.

또한 생성형 AI 도구는 사람들의 보안 및 개인정보를 위협할 수 있으며 저작권법을 위반할 소지가 매우 크다. 이미 몇몇 회사들이 저작물을 도용한 생성형 AI를 사용하여 소송을 당한 사례가 나오고 있다.

미국 싱크탱크 브루킹스 연구소(Brookings Institution)의 알렉스 엥글러(Alex Engler) 거버넌스학 연구원은 정책 입안자들이 이 문제를 어떻게 생각해야 할지에 대해 고민했다. 그는 ‘기술 악용으로 인한 피해’와 ‘상업적 사용으로 인한 피해’라는 두 가지 주요 위험이 있을 것으로 보았다. 엥글러는 이메일로 주고받은 인터뷰에서 “허위 정보 및 혐오 발언 생산이나 사기 행각의 자동화 등 기술의 악의적인 사용은 콘텐츠 관리 문제와 공통점이 많다”라고 하면서 “이러한 위험에 대처하기 위한 가장 좋은 방법은 플랫폼 거버넌스라고 생각한다”고 말했다. 

지금까지 생성형 AI에 대한 정책은 두 번째 유형, 즉 코딩이나 광고와 같은 기술의 상업적 사용으로 인해 야기되는 위험에 초점을 맞춰 논의되었다. 미국 정부는 주로 연방거래위원회(FTC)를 통해 작지만 주목할 만한 조치를 해왔는데, 2023년 2월 FTC는 기업들에 AI의 능력을 과장하는 등의 입증 할 수 없는 기술적 역량을 주장하지 말 것을 촉구하는 경고 성명을 발표했다. 또 최근에는 FTC의 비즈니스 블로그에서 기업이 생성형 AI를 사용할 때 고려해야 할 위험 요인에 대해 이전보다 더 강경한 표현을 사용했다.

이 블로그 게시물에서는 ‘합성 미디어(synthetic media)(AI를 통해 생성하거나 변형한 콘텐츠) 및 생성형 AI 제품을 개발하거나 제공하는 경우, 설계 단계부터 출시 이후까지 이로 인한 사기나 피해가 발생할 가능성을 합리적인 선에서 예측하고 고려해야 한다. 악용 사례가 분명히 예상되는 경우도 많다. 그런 다음 야기될 우려가 있는 위험이 제품을 아예 제공하지 말아야 할 정도로 큰지 스스로 되물어야 한다’라고 설명한다.

또한 미국 저작권청(USCO)은 AI, 저작자 표시 및 지적 재산과 관련한 까다로운 정책 문제들을 해결하기 위한 이니셔티브를 새롭게 출범했다.

한편 유럽연합(EU)은 기술 정책 분야의 세계적인 선도자로서의 명성을 지키고 있다. EU의 ‘AI법(AI Act)’에 따르면 기업은 AI 모델의 작동 방식에 대한 정보를 공개해야만 이를 시중에 출시할 수 있다. 일각에서 GPT-4의 출시를 두고 오픈AI를 비난하고 있는 이유도 바로 이점 때문이다.

EU는 AI의 사용처에 따라 차등을 둘 계획이다. 이들은 먼저 비디오 게임, 스팸 필터와 같은 저위험 사용처와 채용, 법률, 금융과 같은 고위험 사용처를 분리한 다음, 후자처럼 민감한 사용처에 더 높은 투명성을 요구할 것이다. AI 모델이 급속히 확산하고 있는 가운데 오픈AI는 빠른 채택 속도를 둘러싼 일부 우려에 대해 인정하는 모습을 보였다. 실제로 오픈AI의 샘 올트먼(Sam Altman) CEO는 ABC 뉴스와의 인터뷰에서 자신 또한 염려가 많다고 말했다. 그러나 오픈AI는 여전히 GPT-4에 대한 주요 데이터를 공개하지 않고 있다.

워싱턴, 브뤼셀, 런던, 그리고 전 세계 각지의 정책 담당자들은 생성형 AI가 앞으로 우리 생활의 일부가 될 것이라는 사실을 이해하는 것이 중요하다. 물론 AI의 역량에 있어 과장된 부분도 있지만 최근 AI의 발전은 사람들에게 위험을 끼칠 수 있는 만큼이나 현실적이고 중요하다.

미리보기 2회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.