본문 바로가기

인공지능(AI)

사법 분야에서 머신 러닝 알고리즘의 사용 (3)

반응형

형사 사법 위험 평가 도구의 문제점

 현재의 위험 평가 도구는 이미 널리 퍼져 있는 의사 결정의 편향을 악화시킨다고 주장하는 몇몇 전문가들과 함께 약간의 논란을 불러일으켰습니다. 문제는 ML 모델이 이전 데이터에 대해 훈련된다는 것입니다. 예를 들어, 그 데이터는 범죄 기록과 이전 법원 사건에 대한 정보를 포함합니다. 그러나 이 데이터에 과거에 인간이 내린 편향된 결정이 포함되어 있다면, 알고리듬은 편향을 상속하고 결함 있는 데이터에 대해 훈련되어 편향된 결과를 생성합니다.

 

 편향된 의사 결정의 가장 두드러진 예시로는 마리화나 소지에 대한 유죄 판결에서 아프리카계 미국인들의 차별이 있습니다. 연구에 따르면 모든 인종 집단이 동일한 비율로 마리화나를 소비하는 것으로 추정된다고 합니다. 하지만, 아프리카계 미국인들은 다른 인구 통계보다 훨씬 더 높은 비율로 기소되었습니다. 따라서 역사적 기록에 의존하는 모델은 아프리카계 미국인들이 고위험군에 속한다고 부당하게 예측할 것입니다.

 

 기계 학습 알고리즘의 한계는 두 가지 유형의 편향을 포함합니다. 먼저 편향 및 데이터에 대한 내용입니다. 편향된 데이터는 편향된 결과를 생성합니다. 기계 학습 모델은 범죄와 관련된 일부 패턴을 감지할 수 있지만, 이러한 패턴은 범죄의 실제 원인을 정확하게 나타내지 못할 수 있습니다. 대부분의 경우, 이러한 패턴은 법 집행에 있어 기존의 부당함을 반영합니다. 기계 학습 알고리즘이 과거 기록에만 의존하는 한, 역사적으로 차별을 받아온 인구 통계는 불공정으로 고통받을 수 있습니다.

 

 다음으로,  AI는 인간의 편견을 강화할 수 있습니다. 같은 문제를 다르게 보면 또 다른 문제가 발생합니다. 위험 평가 도구는 인간의 편견을 검증하는 결과를 산출할 수 있습니다. 그리고 심사위원들이 알고리즘에 근거하여 결정할 수 있기 때문에, 그들의 결정은 암묵적인 편견에 의해 영향을 받을 수 있습니다.

 

 편향의 존재는 인공지능 지원 도구의 진정한 영향을 다소 모호하게 남깁니다. 비평가들은 또한 특히 COMPAS에 반대하는 주장들은 다음과 같은 이유를 들었습니다. 먼저 개인화 부족입니다. 2016년  Loomis v. Wisconsin의 경우 청원자들은 COMPAS가 평가한 역사적 집단의 위법 행위 경향을 근거로 형이 집행되었다고 주장했습니다. 이들은 나아가 법원이 범인의 신상명세를 살피지 않고 행동이 비슷한 범죄자들과 묶어 비슷한 형량을 선고했다고 주장했습니다. 하지만 재판부는 최종 결정이 전적으로 위험 평가 도구에 의존한 것은 아니다며 이 진술을 부인했습니다.

 

 또한, 투명성이 부족합니다. COMPAS의 설립자들은 소프트웨어가 어떻게 작동하는지에 대한 자세한 설명을 공개하기를 거부하며, 그것이 영업 비밀이라고 주장합니다. 예를 들어 같은 위스콘신주 법원 사건 때 성별이 평가 과정에 포함됐지만, 어떻게 평가되고, 방정식에 어느 정도 무게가 실렸는지에 대한 구체적인 내용은 없어 청원자들이 차별적이라고 믿게 만들었습니다.

반응형