fbpx
A new public database lists all the ways AI could go wrong

AI의 잠재적 위험 정리한 데이터베이스가 공개되다

데이터베이스 제작자들은 이것이 AI가 초래할 어떤 위험을 심각하게 받아들여야 하는지 판단할 추가 연구의 토대가 되어 주기를 바란다.

인공지능(AI)의 도입에는 위험이 따른다. AI 시스템은 편향되거나, 허구를 지어내거나, 심지어 사람을 중독시킬 수 있다. 이는 AI가 새로운 생화학 무기를 만들거나 언젠가 인간의 통제에서 벗어나는 극단적인 상황 이전에 충분히 발생할 법한 문제다.  

AI의 잠재적 위험을 관리하려면 먼저 그 위험이 무엇인지 알아야 한다. 최근 MIT 컴퓨터과학·인공지능연구소(MIT CSAIL)의 퓨처테크(FutureTech) 연구 그룹이 협력자들과 함께 제작한 새로운 데이터베이스가 도움이 될 것이다. 일명 ‘AI 위험 보관소(AI Risk Repository)’로, 첨단 AI 시스템으로 발생할 수 있는 700가지 이상의 잠재적 위험이 문서화되어 있다. 이 데이터베이스는 AI 모델의 제작과 공개로 인해 발생할 수 있는 문제들에 대한 매우 포괄적인 정보를 제공한다. 

제작팀은 AI의 위험을 다룬 동료심사 저널의 기사들과 출판 전 논문 데이터베이스를 철저히 검토해 정리했다. 그 결과, 가장 많이 언급된 위험은 AI 시스템의 안전성과 견고성(76%)이었고, 불공정한 편향과 차별(63%), 사생활 침해(61%)가 그 뒤를 이었다. 반면 적게 언급된 위험은 AI가 고통을 느끼거나 ‘죽음’ 같은 경험을 할 수 있게 하는 등의 비교적 난해한 것들이었다. 

이 데이터베이스는 또한 AI로 인한 위험 대부분이 대중에 공개된 이후 발견된다는 사실도 보여주었다. 전체 위험 중 단 10%만이 공개 전에 발견되었다. 

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!