Bias isn’t the only problem with credit scores—and no, AI can’t help

AI의 신용평가 편향, AI가 해결할 수 있나?

실제 담보대출 데이터를 분석한 최대 규모 연구에서 소수인종에 대한 대출 심사에 사용된 예측 도구의 정확도가 낮은 것으로 확인되었다.

우리는 편향된 데이터와 알고리즘에 의해 왜곡된 자동화 의사결정 시스템이 저소득층과 소수인종을 차별한다는 사실을 잘 알고 있다. 예를 들어, 은행이 대출 신청자의 상환 가능성을 평가할 때 사용하는 소프트웨어는 소득 수준이 높은 백인 신청자를 주로 선호한다. 이 문제를 해결하기 위해 많은 연구자와 기업이 알고리즘의 공정성 강화에 매달리고 있다. 

그런데 실제 담보대출 데이터에 기반한 연구에서 소수인종과 다수인종의 담보대출 승인율 차이가 단순히 편향성에 기인한 것이 아니라는 점이 확인되었다. 비슷한 연구 중 최대 규모인 이번 연구는 스탠퍼드 대학교의 경제학자 로라 블래트너(Laura Blattner)와 시카고 대학교의 경제학자 스캇 넬슨(Scott Nelson)에 의해 진행되었다. 이들은 대출 승인율이 차이나는 것은 저소득층 및 소수인종의 신용이력 데이터가 부족하기 때문이라고 밝혔다.

이는 이런 데이터를 사용하여 신용점수를 계산하고 이렇게 계산된 신용점수를 채무불이행 가능성 예측에 사용한다면 예측의 정확도가 낮아진다는 것을 의미한다. 편향성 뿐만 아니라 정밀성(precision)의 부족도 불평등으로 이어지고 있는 것이다.

이는 냉정히 말해 더 공정한 알고리즘으로도 문제를 해결할 수 없을 것이라는 의미이다.

MIT 테크놀로지 리뷰와 함께, 미래를 앞서가세요 !!
한달에 커피 2잔값으로 즐기기
온라인 멤버
지면 매거진 멤버
(온라인+지면) 프리미엄 멤버

유료회원 플랜 보기 회원이면 로그인하기 회원가입

회원 가입 후 유료 구독 신청을 하세요 !!