본문 바로가기

인공지능(AI)

인공지능 알고리즘의 편향성과 공정성 (1)

반응형

 인공지능은 편향과 공정성으로 인해 문제에 직면합니다. 기계 학습이 일부 그룹과 개인이 불이익을 받는 사회를 만드는 데 기여하는 다양한 산업과 응용 프로그램이 있습니다. 가장 흔한 문제 중 일부는 어두운 피부의 얼굴을 감지하는 문제로 이어지는 얼굴 인식과 민족에 걸친 의료 진단을 포함합니다. 인공지능 알고리즘의 편향과 공정성에 대해 더 많이 배우고 공정하고 공평한 결과로 이어지는 결정을 내리는 데 도움을 주는 인공지능 시스템을 개발하는 방법에 대해 알아보겠습니다.

 

AI 편향이란?

 인공지능 편향, 알고리즘 편향 또는 기계 학습 편향은 인간의 편향을 통합하고 반영하는 알고리즘의 경향입니다. 인공지능 모델과 그 예측은 훈련에 사용되는 데이터에 의해 크게 결정됩니다. 따라서 많은 편향은 편향된 데이터의 결과입니다.

 

 기본적으로, 데이터가 고품질이 아니고 스크러빙된 경우 편향을 포함할 수 있습니다. 왜곡된 데이터 세트는 잘못된 결정을 초래하는 불완전하고 부정확하며 부적절한 훈련 데이터로 구성됩니다. 따라서 AI 엔진에 공급되는 데이터는 AI 모델에 영향을 미칠 수 있으며 기계 학습 수명 주기의 모든 단계에서 편향을 잠재적으로 도입할 수 있습니다.


 그리고 나서, 만일 그 모델이 그러한 편향들에 대해 훈련을 받는다면, 그것은 그것들을 그것의 알고리즘에 통합하고 예측이나 결정을 내릴 때 그것을 사용하는 것을 배울 수 있습니다. 그러므로, 공정한 인공지능 모델은 정확하고, 완전하고, 일관적이고, 유효하고, 균일한 데이터의 고품질 훈련 세트를 필요로 합니다.

 

 다음은 AI 편향이 무엇인지 더 잘 이해하기 위한 실제 AI 편향 사례입니다. 2009년, 니콘은 새로운 깜박임 감지 기능을 갖춘 쿨픽스 디지털 컴팩트 카메라를 출시했습니다. 사람의 사진을 찍는 동안 깜박임 감지 기능은 노란색 상자로 화면의 얼굴을 강조합니다. 사진이 포착된 후, 누군가의 눈이 완전히 뜨지 않으면 "누군가 깜빡였습니까?"라는 경고가 표시되어 필요한 경우 다른 이미지를 찍을 수 있습니다. 그러나 이 기능은 아시아 소비자들의 깜박임 감지에 부정확했고, 많은 사람들이 이 기능이 편향되었다고 말하도록 만들었습니다.


 2015년, 구글의 사진 애플리케이션은 실수로 흑인 커플의 사진을 고릴라라고 라벨을 붙였습니다. 불행하게도, 구글의 인공지능 분류 및 라벨링 기능은 인공지능이 편견을 내재화하는 방법의 또 다른 예였습니다. 그럼에도 불구하고, 사용자들은 애플리케이션 내에서 잘못 식별된 사진 분류를 제거할 수 있었고, 시간이 지남에 따라 정확성을 향상시키는 것을 도울 수 있었습니다.

 

반응형