본문 바로가기

인공지능(AI)

인공지능 알고리즘의 편향성과 공정성 (3)

반응형

인공지능 편향은 어디서 생기는가?

인간 리뷰의 편견

모델의 예측을 수용할지 또는 무시할지를 결정할 때 인간 검토자는 자신의 편견에 기초하여 올바른 모델 예측을 무시하고 자신의 편견을 도입할 수 있습니다. 이는 사람이 평가하는 동안 자신의 편견이 알고리즘에 영향을 미치도록 허용할 때 발생할 수 있으며, 이는 모델의 성능에 상당한 영향을 미칠 수 있습니다.

 

인공지능 편향을 완화하는 방법은?

 편향 완화 전략을 적용하면 AI 알고리즘의 성능을 높일 수 있습니다. 즉, AI 시스템의 편향은 모델링 워크플로우의 세 단계를 통해 해결될 수 있습니다.

 

 전처리: 데이터 과학자들은 편향을 감지하기 위해 원시 데이터에 대한 테스트를 실행하여 모델을 훈련시키기 전에 데이터 세트를 수정할 수 있습니다. 그런 다음 훈련 샘플에 적용된 가중치를 변경하여 편향을 완화하기 위해 AI 알고리즘을 전처리할 수 있습니다.

 

 처리 중 과정: 데이터 과학자는 최적의 결과를 얻기 위해 매개 변수 값을 변경하여 모델 교육 과정 중에 학습 알고리즘을 수정할 수 있습니다.

 

 사후 처리: 이 단계에서 데이터 과학자는 모델을 재교육함으로써 편향을 해결할 수 있습니다. 재교육은 종종 새로운 데이터를 도입하거나, 모델을 처음부터 재구성하거나, 모델 매개 변수를 구성함으로써 이루어집니다.

 

인공지능 공정성이란 무엇입니까?

 인공지능의 공정성은 알고리즘과 의사 결정 모델로부터 편견과 차별을 제거하려고 노력하는 성장하는 분야입니다. 기계 학습 공정성은 인종과 민족, 성별, 성적 지향, 장애 및 사회경제적 계층과 같은 민감한 속성에 기초하여 기계 학습 모델로부터 알고리즘 편향을 다루고 제거합니다.
 지나치게 표현된 그룹을 사용하여 훈련할 때, 모델은 과소 표현된 그룹에 대해 부정확한 예측을 생성할 수 있습니다. 이 문제를 해결하기 위해 연구자들은 공정성을 부과하는 알고리듬을 개발하여 데이터 세트의 민감한 특성을 제외하는 소외된 그룹에 영향을 미치는 성능 차이를 줄일 수 있습니다. 예를 들어, 새로운 알고리듬은 민감한 속성이 추가되는지 여부에 관계없이 모델이 입력을 예측하도록 보장하기 위해 교정 기술을 사용할 수 있습니다.

반응형