China has a new plan for judging the safety of generative AI—and it’s packed with details

중국, 생성형 AI의 안전성 판단 위한 표준안 초안 발표

중국이 기업이 AI의 안전성을 평가하고 AI 모델에 대한 검열을 시행할 때 따라야 할 매우 구체적인 방법이 명시된 새로운 표준안 초안을 공개했다.

지난 7월 중국 정부가 생성형 인공지능(AI) 규제안을 통과시킨 이후 필자는 중국의 검열 시스템이 AI 시대에 정확히 어떻게 적응할지가 정말 궁금했다. 생성형 AI 모델이 생성하는 콘텐츠는 기존 소셜 미디어보다 더 예측하기 어렵다. 그런데도 규제안에는 모호한 부분이 많이 포함되어 있다. 예를 들어, “사회적 동원(social mobilization)이 가능한 기업은 정부 규제기관에 안전성 평가를 제출해야 한다”고 되어 있지만, 어떻게 제출한 자료를 평가하겠다는 건지를 구체적으로 명시해 놓지 않고 있다.

지난주에야 비로소 생셩형 AI 규제안을 실제로 어떻게 적용할지가 대략적으로나마 명확해졌다.

중국 정부 기관인 국가정보보안표준화기술위원회(National Information Security Standardization Technical Committee)는 11일 생성형 AI 모델에 문제가 있는지 여부를 판단하는 방법에 관한 세부안이 담긴 문서 초안을 발표했다. 짧게 TC260으로 불리기도 하는 이 위원회는 기업 대표, 학자, 규제 당국과 협의해 사이버 보안에서 개인정보 보호, 정보기술(IT) 인프라에 이르는 다양한 문제를 아우르는 기술 산업 규칙을 수립하는 역할을 한다.

TC260이 공개한 ‘표준안’은 중국이 그동안 내놓은 다른 많은 AI 규제와 달리 매우 구체적이다. 언제 데이터 소스가 생성형 AI 훈련을 금지해야 하는지 명확한 기준을 마련했고, AI 모델을 테스트하기 위해 준비해야 하는 정확한 키워드 수와 샘플 질문에 대한 메트릭스(metrics)도 제시해 놓았다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!