Generative AI risks concentrating Big Tech’s power. Here’s how to stop it.

빅테크 기업에 쏠린 생성형 AI와 리스크, 대응 방안은 바로 이것

AI로 인한 피해를 줄이고 빅테크로 권력이 집중되는 현상을 막기 위해서는 기술 기업에 대한 더 신속하고 강력한 규제가 필요하다.

규제 기관들이 지금 행동하지 않으면 생성형 AI(generative AI) 붐으로 거대 기술 기업들, 즉 빅테크(Big Tech)의 권력이 더 강화될 것이다. 이는 연구기관 AI 나우(AI Now)가 발표한 새 보고서의 핵심 주장이다. 그리고 이 주장은 타당하다. 그 이유를 이해하려면 현재의 AI 붐이 ‘대량의 데이터’와 이를 처리할 수 있는 ‘컴퓨팅 성능’에 달려 있다는 점을 생각해야 한다.

이 두 자원을 실제로 이용할 수 있는 것은 대기업뿐이다. 비록 오픈AI의 챗GPT와 스태빌리티AI(Stability.AI)의 이미지 생성 AI 스테이블디퓨전(Stable Diffusion) 등 흥미로운 제품 중 일부는 스타트업에서 만들어 냈지만, 이들 스타트업 또한 방대한 데이터와 컴퓨팅 자원에 접근하기 위해 빅테크와의 거래에 의존한다.

비영리 연구단체 AI 나우 연구소(AI Now Institute)의 세라 마이어스 웨스트(Sarah Myers West)는 “몇몇 대형 기술 기업들은 AI를 통해 권력을 평등하게 나누기보다는 더욱 공고히 할 것으로 보인다”고 말한다.

현재 빅테크는 AI 분야를 장악하고 있다. 그러나 마이어스 웨스트는 지금이 실제로는 분수령이라고 믿고 있다. 우리는 현재 새로운 기술을 과대광고하는 사이클의 시작점에 있으며, 이는 법을 제정하는 국회의원과 규제 당국이 AI 기술의 향후 10년을 더 평등하고 공정하게 만들 특별한 기회를 가지고 있다는 것이다.

이번 기술 붐이 이전과 다른 점은 이제는 우리가 AI가 잘못될 수 있는 모든 재앙적인 방식을 더 잘 이해하고 있다는 것이다. 게다가 모든 규제 기관도 과거와는 달리 세심한 주의를 기울이고 있다.

중국은 생성형 AI에 더 높은 투명성과 감독을 요구하는 법안 초안을 공개했고, 유럽연합(EU)은 생성형 AI 시스템의 작동 방식에 대해서 기술 기업들에 더 높은 수준의 투명성을 요구하기 위한 AI 법(AI Act) 제정을 추진하고 있다. EU는 AI로 인한 피해에 대해 기술 기업의 책임을 묻는 법안도 계획하고 있다.

미국은 전통적으로 기술 분야 규제를 꺼렸다. 그러나 이러한 미국의 태도도 바뀌고 있다. 바이든 행정부는 챗GPT 같은 AI 모델을 감독할 방안에 대한 의견을 구하고 있다. 예를 들어 기술 기업에 감사와 영향 평가를 요구하거나, AI 시스템을 출시할 때 특정 표준을 충족하도록 의무화하는 방안 등이 여기에 해당한다. 이는 AI로 인한 피해를 줄이기 위해 미 행정부가 취한 가장 구체적인 조치이다.

한편 미국 연방거래위원회(Federal Trade Commission)의 리나 칸(Lina Khan) 위원장도 데이터 및 컴퓨팅 능력과 관련해서 빅테크가 유리한 위치에 있음을 강조하며 AI 산업의 공정하고 자유로운 경쟁을 보장하겠다고 선언했다. 연방거래위원회는 반독점 조사와 기만적인 사업 관행에 대한 단속을 고려하고 있다.

연방거래위원회가 AI 분야에 이처럼 새롭게 집중하게 된 데에는 마이어스 웨스트를 포함한 AI 나우 연구소의 여러 구성원이 연방거래위원회에서 시간을 보낸 것도 영향을 미쳤다.

마이어스 웨스트는 AI 규제를 백지상태에서 시작할 필요가 없다는 것을 깨달았다고 말한다. 시행되려면 몇 년이 걸릴 것으로 보이는 EU의 AI법 같은 AI 특화 규제를 기다리는 대신에 규제 기관들은 기존의 데이터 보호 및 경쟁 법률 시행을 강화해야 한다.

마이어스 웨스트는 우리가 오늘날 알고 있는 AI가 막대한 양의 데이터에 크게 의존하기 때문에 데이터 정책 또한 AI 정책으로 볼 수 있다고 지적한다.

이에 해당하는 사례가 있다. 챗GPT는 유럽과 캐나다의 데이터 보호 당국으로부터 철저한 조사를 받게 되었으며, 이탈리아에서는 인터넷에 있는 개인 데이터를 불법으로 수집하고 남용한 혐의로 서비스가 차단되었다.

AI에 대한 규제를 요구하는 주체는 정부 관계자들뿐만이 아니다. 최근 일어난 흥미로운 변화가 있다. 오픈AI를 포함한 대부분의 기술 회사는 과거 수십 년간 규제에 필사적으로 저항하던 태도를 벗어나 이제 규제를 환영한다고 주장한다.

모두가 여전히 고심하고 있는 큰 문제는 ‘AI를 어떻게 규제해야 하는가’이다. 기술 기업들은 규제를 지지한다고 주장하지만, AI 기반 제품 출시와 관련해서는 여전히 ‘우선 출시하고 나중에 질문을 받는’ 접근방식을 추구하고 있다. 기술 기업들은 이미지 생성 또는 텍스트 생성 AI 모델을 서둘러 출시하고 있지만 이러한 모델에는 문제가 있다. 생성형 AI 모델들은 터무니없는 말을 만들어 내고 해로운 편향을 영구화하며 저작권을 침해하고 보안 취약점을 가지고 있다.

AI 나우의 보고서는 알고리즘 감사 같은 AI 제품 출시 사후 조치로 AI 책임 문제를 처리하자는 백악관의 주장이 AI로 인한 피해를 완화할 만하지 않다고 주장한다. 마이어스 웨스트는 제품이 출시하기에 적합하다는 것을 기업들이 먼저 입증하게 하려면 더 강력하고 신속한 조치가 필요하다고 말한다.

마이어스 웨스트는 “우리는 기업에 부담을 주지 않는 접근법을 매우 경계해야 한다. 대중과 규제 기관에 책임을 전가하는 것으로 AI로 인한 피해를 근절하려는 규제 접근법이 많다”고 지적한다.

마이어스 웨스트는 “중요한 것은 규제 당국이 신속한 조치를 취해야 한다는 것”이라고 말하며, “기술 회사들이 법을 위반했을 때 감당해야 할 결과가 있어야 한다”고 강조했다.

미리보기 2회1회

MIT Technology Review 구독을 시작하시면 모든 기사를 제한 없이 이용할 수 있습니다.