How judges, not politicians, could dictate America’s AI rules

미국 법원이 AI 규제 수립 중심지로 부상하다

AI 기업을 대상으로 많은 소송이 제기되면서 미국에서 AI를 규제하는 주체가 정치인들이 아닌 기술 전문 변호사들이 될 가능성도 커지고 있다.

미국 최초로 인공지능(AI)의 개발 및 사용 범위를 결정하는 주체가 정치인이 아닌 법원이 될 것이라는 예측이 점차 기정사실화되고 있다.

지난 7월 미국 연방거래위원회(Federal Trade Commission, 이하 FTA)는 오픈AI(OpenAI)가 챗GPT를 훈련시키기 위해 사람들의 온라인 데이터를 스크랩함으로써 소비자 보호법을 위반했는지에 대한 조사에 착수했다. 한편, 예술가 및 작가들과 이미지 기업 게티(Getty)는 오픈AI, 스태빌리티AI(StabilityAI), 메타(Meta) 등의 AI 기업이 저작권의 귀속 주체를 밝히거나 대가를 지불하지 않고 해당 저작물로 AI 모델을 훈련시켜 저작권법을 위반했다고 주장하며 소송을 제기하고 있다.

이러한 사건에서 원고들의 주장이 성공적으로 입증될 경우, 이는 오픈AI, 메타, 마이크로소프트 등이 더욱 공정하고 형평성 있는 방식으로 AI를 개발, 훈련 및 배포하도록 강제하는 계기가 될 수 있다.

또한 이러한 기업들은 라이선스 및 로열티 제도를 통해 예술가 및 작가 등이 AI 모델의 학습 데이터로 사용되는 저작물에 대해 보상을 받도록 하는 새로운 방안을 마련할 수도 있다.

생성형 AI(generative AI)의 폭발적인 인기에 힘입어 미국 정치인들 역시 AI 관련 법안을 제정하는 데 속도를 내고 있다. 그러나 전자개인 정보 센터(Electronic Privacy Information Center)의 선임 고문 벤 윈터스(Ben Winters)는 의회 내 분열과 테크 기업들의 강력한 로비로 인해 내년 중에 AI 관련 법안이 통과되기는 어려울 것이라고 예측한다. 미국에서 새로운 AI 규정 마련을 위한 가장 대표적인 움직임으로 평가받는 척 슈머(Chuck Schumer) 상원 의원의 SAFE 혁신 프레임워크(SAFE Innovation framework)도 아직까지 별다른 정책안을 제시하지 않고 있다. SAFE 혁신 프레임워크란 향후 AI 법안 제정의 토대가 될 보안(security), 책임성(accountability), 민주적 토대(foundations) 및 설명 가능성(explainability)이라는 핵심 원칙의 앞 글자를 따 명명한 포괄적인 입법 체계를 의미한다.

AI 나우 연구소(AI Now Institute)의 전무이사인 사라 마이어스 웨스트(Sarah Myers West)는 “기존 법률에서 출발하는 것이 [AI 규정집을 펴내기 위한] 더 현실적인 방안이 될 것으로 보인다”고 지적한다.

마이어스 웨스트가 말하는 기존 법률이란 다름 아닌 소송이다.

다방면에서 제기되는 AI 소송

기존 법률은 AI 기업이 자신의 권리를 침해했다고 주장하는 사람들에게 다양한 근거를 제공했다.

지난해 AI 기업들은 다수의 저작권 침해 소송에 휘말렸다. 이 중 가장 최근 제기된 소송의 원고는 코미디언이자 작가인 사라 실버먼(Sarah Silverman)으로 그녀는 오픈AI와 메타가 AI 모델을 훈련시키기 위해 자신의 저작물을 인터넷에서 불법으로 스크랩했다고 주장했다. 그녀의 주장은 또 다른 집단 소송에서 대중적인 이미지 생성형 AI 소프트웨어가 저작권 이미지를 동의 없이 사용했다고 비판하는 예술가들의 주장과 유사하다. 마이크로소프트, 오픈AI 및 깃허브(GitHub)에서 사용하는 AI 기반 프로그래밍 도구인 코파일럿(Copilot)에 대해서도 웹 사이트에서 스크랩한 기존 프로그래밍 코드를 사용한 모델 훈련으로 인해 ‘역대 최대 규모의 소프트웨어 불법 복제’ 혐의가 있다고 주장하는 집단 소송이 제기된 상태다.

한편 FTA는 오픈AI를 대상으로 데이터 보안 및 개인 정보 보호 관행이 불공정하거나 기만적인지, AI 모델 훈련 과정에서 소비자에게 평판 훼손 등의 피해를 입혔는지 여부를 조사 중이다. 올해 초 오픈AI는 시스템 버그로 인해 사용자의 채팅 기록과 결제 정보가 유출되면서 보안 관련 법률을 위반했고 AI 언어 모델은 사람에 대해 부정확하고 조작된 콘텐츠를 내뱉고 있어 의심되는 부분을 뒷받침할 실질적인 증거도 있다.

오픈AI는 적어도 대외적으로는 FTC 조사에 대해 낙관적인 입장을 취하고 있다. 연락을 취해 의견을 묻자 오픈AI는 “회사가 법을 준수하고 있다고 확신한다”는 문장이 적힌 CEO 샘 올트먼(Sam Altman)의 트위터 스레드를 공유했다.

비영리 단체인 AI 및 디지털 정책 센터(Center for AI and Digital Policy, 이하 CAIDP)의 설립자이자 센터장인 마크 로텐버그(Marc Rotenberg)는 FTC와 같은 공공기관이야 말로 기업을 법정에 세우고 업계에 대한 표준을 집행하며 더욱 바람직한 비즈니스 관행을 도입할 수 있는 주체라고 주장한다. CAIDP는 지난 3월 FTC에 오픈AI에 대한 수사를 요청하는 진정서를 제출했다. 마이어스 웨스트는 FTC가 AI 기업들에 허용되는 활동 범위에 대한 명확히 경계를 제시할 수 있는 새로운 규정을 수립할 수 있는 권한을 갖고 있다고 이야기한다.

로텐버그에 따르면 FTC는 오픈AI에 벌금을 부과하거나 불법적으로 수집된 데이터를 삭제하고 그러한 데이터를 사용하는 알고리즘을 삭제하도록 요구할 수 있다. 극단적인 경우 GPT의 온라인 사용이 금지될 수도 있다. 이에 대한 선례로 FTC는 과거에 2022년 다이어트 기업 웨이트 워처스(Weight Watchers)에 불법으로 수집한 아동 데이터와 관련 알고리즘을 삭제하라는 명령을 내렸다.

다른 정부 집행기관들도 자체적으로 조사를 진행할 권한을 갖고 있다. 예를 들어 미국 소비자금융보호국(Consumer Financial Protection Bureau)은 금융 부문에서의 AI 챗봇 활용 실태를 조사하고 있다고 밝혔다. 윈터스는 생성형 AI가 곧 시행될 2024년 미국 대통령 선거에서 중요한 역할을 한다면 미 연방선거관리위원회(Federal Election Commission) 역시 조사에 나설 수 있다고 주장한다.

이러한 과정에서 현재 진행 중인 소송의 결과도 조금씩 영향을 미치기 시작할 것이다. 다만 집단 소송과 FTC 조사가 법정에서 본격적으로 다뤄지기까지는 적어도 2년 이상이 걸릴 수 있다.

예일 법학대학원(Yale Law School)에서 상주 연구원(resident fellow)으로 근무하며 지식 재산, 데이터 거버넌스 및 AI 윤리를 연구하는 메탑 칸(Mehtab Khan)은 올해 제기된 소송 중 상당 수는 청구 범위가 너무 포괄적이라 판사가 기각 결정을 내릴 것으로 예상한다. 그러나 이 소송에는 여전히 중요한 의미가 있다. 변호사들은 청구 범위를 넓게 설정한 후 법원이 어떤 부분을 인정하는지 예의주시한다. 칸은 이러한 과정에서 법원에서의 소송이 보다 정교화되어 기업이 AI 모델을 구축하고 사용하는 방식을 변화시킬 수 있다고 덧붙인다.

칸은 진행 중인 소송들이 기업들의 데이터 기록 관행을 개선하는 계기가 될 수도 있다고 기대한다. 현재 테크 기업은 AI 모델에 투입되는 데이터에 대해 매우 기초적인 정보만을 파악하고 있다. 기업들이 데이터 수집 및 사용에 관한 정보를 체계적으로 기록한다면 데이터 관련 불법 행위가 추가로 발견될 위험도 있지만 기존 소송에서의 변호에 도움이 될 수 있다.

역사는 반복된다

새로운 형태의 규제 법안이 도입되기 전에 법원이 판결을 내리는 것은 이례적인 일이 아니다. 칸은 실제로 미국이 과거에도 이러한 방식으로 신기술에 대응해 왔다고 주장한다.

이는 다른 서구 국가들과는 차이를 보인다. 유럽연합(EU)은 AI로 인한 피해가 커지는 것을 막기 위해 선제적인 노력을 펼치는 데 반해 미국은 사후적인 대응 방식을 취한다. 로펌 프리드 프랭크(Fried Frank)의 파트너 아미르 가비(Amir Ghavi)에 따르면 미국에서는 피해가 먼저 발생한 후에야 규제 마련에 착수한다. 가비는 3건의 저작권 소송에서 오픈소스 이미지 생성 AI인 스테이블 디퓨전(Stable Diffusion)을 개발한 스태빌리티AI를 대리하고 있다.

가비는 이러한 관행을 “친자본주의적인 입장”이라고 평가하며 “혁신을 촉진하고 창작자와 발명가들이 한층 더 자유롭게 새로운 대안을 상상할 수 있도록 한다”고 설명했다.

반독점 및 집단 소송 전문 로펌의 설립자인 조셉 새버리(Joseph Saveri)와 변호사 매튜 버트릭(Matthew Butterick)은 저작권 및 개인 정보 보호에 대한 집단 소송이 ‘블랙박스’처럼 작동 과정이 베일에 싸인 AI 알고리즘의 작동 방식에 대한 관심을 높이고 예술가와 작가가 AI 모델에 사용되는 저작물에 대한 보상을 받을 수 있는 새로운 방안을 강구하는 데 도움이 될 것으로 예상한다.

새버리와 버트릭은 깃허브와 마이크로소프트, 오픈AI, 스태빌리티AI 및 메타를 상대로 제기된 소송을 담당하고 있다. 두 사람은 실버먼을 변호하고 있으며 그녀는 테크 기업들이 저작권이 등록된 자신의 저서를 이용하여 언어 모델을 교육했다고 주장하는 저자들로 구성된 단체의 회원이다. 생성형 AI 모델은 인터넷에서 수집한 방대한 양의 이미지 및 텍스트 데이터 세트를 이용해 학습하며 여기에는 불가피하게 저작권이 있는 데이터가 포함된다. 작가, 예술가, 프로그래머들은 동의를 받거나 소유자를 명시하지 않고 무단으로 자신의 지식 재산을 스크랩한 테크 기업들이 저작권자에게 보상을 해야 한다고 주장한다.

버트릭은 “아직 법적 규제가 마련되지 않은 사각 지대가 있으며 우리는 이처럼 필요한 부분에 법을 적용하고 있다”고 말한다. 버트릭은 소송에서 문제가 되는 AI 기술이 생소할지 몰라도 그와 관련된 법적 문제는 이전부터 존재했으며 그의 팀은 ‘오래된’ 저작권법을 근거로 쟁점을 다툰다고 설명한다. 

버트릭과 새버리는 개인 간(P2P) 음악 공유 시스템인 냅스터(napster)를 예로 든다. 이 기업은 레코드 회사들로부터 저작권 침해 혐의로 고소를 당했고, 이는 음악이 공정하게 사용될 수 있는 기념비적인 사건이 되었다.

버트릭은 냅스터의 합의가 애플, 스포티파이(Spotify) 등과 같은 회사가 새로운 라이선스 기반 거래를 시작하는 토대를 마련했다고 평가한다. 버트릭과 새버린은 진행 중인 소송을 통해 아티스트, 작가 및 기타 저작권 보유자들이 그들의 콘텐츠가 AI 모델 훈련에 사용될 경우 로열티를 받을 수 있는 라이선스 솔루션이 개발되기를 희망하고 있다. 이는 현재 음악 업계에서 사용 중인 음악 샘플링용 라이선스 시스템과 유사한 형태가 될 것이다. 또한 기업들은 훈련용 데이터 세트에 저작권이 있는 콘텐츠를 사용할 경우 명시적으로 허가를 받을 의무를 지게 될 것이다.

테크 기업들은 인터넷에 공개된 저작권 데이터를 미국 저작권법에 따라 사전 허가 없이 사용할 수 있는 ‘공정한 사용(fair use)’의 대상으로 취급해 왔다. 하지만 저작권 보유자들은 이러한 해석에 동의하지 않는다. 가비는 집단 소송을 통해 어느 쪽의 견해가 옳은지 판가름이 날 것이라고 이야기한다.

이는 기술 전문 변호사들이 맞게 될 새로운 전성기의 서막에 불과하다. MIT 테크놀로지 리뷰가 인터뷰한 전문가들은 테크 기업들이 사람들의 얼굴이 포함된 이미지나 대화 장면이 포함된 동영상과 같은 개인 정보 및 생체 인식 데이터에 대한 소송에도 연루될 가능성이 있다는 데 동의했다. 유명한 AI 아바타 프로그램인 렌사(Lensa)를 개발한 프리즈마 랩스(Prisma Labs)는 이미 사용자의 생체 인식 데이터를 수집하는 방식을 두고 고소를 당했다.

벤 윈터스는 앞으로 제조물 책임 및 미 통신유지법 제230조와 관련된 소송이 늘어날 것으로 예상한다. 해당 법률에서는 제품에 하자가 있을 경우 AI 회사가 책임을 져야 하는지, AI 회사가 AI 모델이 생산하는 콘텐츠에 대해 책임을 져야 하는지 여부 등을 규정한다.

새버리는 “소송 절차가 사회를 획기적으로 바꾸지는 못하지만 그 실효성은 상당히 크다”고 설명하며 “또한 매튜 버트릭이나 나에게는 정치적 로비가 통하지 않는다”고 덧붙였다.

미리보기 2회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.