통계적 평등
📋 문서 버전
이 문서는 22개의 버전이 있습니다. 현재 버전 9을 보고 있습니다.
통계적 평등
개요
통계적 평등(Statistical Parity)은 인공지능(AI) 및 기계 학습델의 공정성(Fairness)을 평가하는 대표적인 수학 기준 중 하나, 모델의 예 결과가 특정 보 속성(예: 성별, 인종, 연령 등)에 따라 차별 없이 동일한 분포를 가지도록 요구하는 개념입니다. 이 기준은 "모든 그룹이 동등한 기회를 가져야 한다"는 공성의 직관적인 정의를 수치적으로 표현한 것으로, AI 시스템의 편향( bias)을 진단하고 완화하는 데 널리 활용됩니다.
통계적 평등은 특히 채용, 대출 승인, 범죄 위험 평가 등 사회적으로 민감한 의사결정 영역에서 AI의 공정성 확보를 위한 핵심 지표로 여겨집니다. 그러나 이 기준은 철학적·실용적 한계를 내포하고 있어, 다른 공정성 기준과 함께 종합적으로 고려되어야 합니다.
통계적 평등의 정의
통계적 평등은 다음과 같이 수학적으로 정의됩니다:
모델이 예측하는 결과 ( \hat{Y} )와 보호 속성 ( A ) (예: ( A = 0 )은 여성, ( A = 1 )은 남성) 간의 독립성을 요구합니다. 즉, 모든 보호 속성 그룹에 대해 긍정적인 예측(예: "채용함", "대출 승인함")을 받을 확률이 동일해야 합니다.
[ P(\hat{Y} = 1 \mid A = 0) = P(\hat{Y} = 1 \mid A = 1) ]
이 식은 "남성 그룹과 여성 그룹이 동일한 비율로 채용되어야 한다"는 의미를 수치화한 것입니다. 만약 이 등식이 성립하지 않으면, 모델은 특정 그룹에 대해 통계적으로 불평등하다고 판단됩니다.
예를 들어, 여성 지원자 중 30%만이 채용되고, 남성 지원자 중 70%가 채용된다면, 이는 통계적 평등을 위반한 사례입니다.
적용 사례
1. 대출 승인 시스템
은행이 AI를 활용해 대출 신청자의 신용도를 평가할 때, 인종에 따라 승인률이 크게 차이 나면 통계적 평등 기준에 위배됩니다.
인종 그룹 | 대출 승인률 |
---|---|
A 그룹 | 65% |
B 그룹 | 40% |
이 경우, 두 그룹 간 승인률 차이(25%p)는 통계적 평등을 위반하며, 이는 AI 모델이 B 그룹에 대해 편향을 가지고 있음을 시사합니다.
2. 채용 알고리즘
AI 기반 채용 시스템이 특정 성별 지원자에게 더 높은 평가를 부여하는 경우, 통계적 평등을 기준으로 이를 탐지할 수 있습니다. 예를 들어, 남성 지원자의 70%가 최종 면접 대상이 되고, 여성은 30%만 선정된다면, 이는 공정성 문제로 간주될 수 있습니다.
장점
- 간단하고 해석이 용이함: 통계적 평등은 직관적으로 이해하기 쉬우며, 결과를 쉽게 측정하고 비교할 수 있습니다.
- 정책적 적용이 쉬움: 정부나 기관이 "모든 집단이 동등한 결과를 받아야 한다"는 원칙을 법제화할 때 유용한 기준이 됩니다.
- 사전 처리 및 후처리 기법 적용에 적합: 데이터 전처리 단계에서 그룹 간 샘플 균형을 맞추거나, 모델 출력 후 그룹별 승인 확률을 조정하는 데 활용 가능합니다.
한계 및 비판
통계적 평등은 다음과 같은 한계를 가집니다:
1. 실제 자격 요건 무시 가능성
모든 그룹이 동일한 승인률을 가져야 한다는 요구는, 그룹 간 실제 능력이나 자격의 차이를 무시할 수 있습니다. 예를 들어, 지원자의 평균 신용 점수나 경력 수준이 그룹 간에 다를 수 있는데, 이를 무시하고 동일한 승인률을 강제하면 결과적으로 비효율적이거나 불공정한 결정을 초래할 수 있습니다.
2. 역차별 가능성
특정 그룹의 성과가 실제로 더 낮은 경우, 통계적 평등을 강제하면 그룹 간 성과 차이를 무시하고 더 많은 부적격자를 선정하게 되어, 역차별(reverse discrimination) 문제가 발생할 수 있습니다.
3. 다른 공정성 기준과의 충돌
통계적 평등은 다른 공정성 기준과 동시에 만족하기 어렵습니다. 예를 들어, 동등한 정밀도(Equal Precision)나 동등한 재현율(Equal Recall)과 같은 기준과는 수학적으로 호환되지 않을 수 있습니다. 이는 "공정성"이 단일 개념이 아니라 여러 축으로 존재함을 보여줍니다.
관련 공정성 기준 비교
공정성 기준 | 설명 | 통계적 평등과의 관계 |
---|---|---|
동등한 기회(Equal Opportunity) | 긍정 클래스에서의 재현율(민감도)이 그룹 간 동일 | 통계적 평등보다 더 정교하지만, 승인률이 다를 수 있음 |
동등한 정밀도(Predictive Parity) | 양성 예측의 정확도가 그룹 간 동일 | 통계적 평등과 독립적일 수 있음 |
조화로운 평등(Demographic Parity) | 통계적 평등과 동의어로 사용됨 | 동일 개념 |
참고 자료 및 관련 문서
- Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning. https://fairmlbook.org
- Hardt, M., Price, E., & Srebro, N. (2016). "Equality of Opportunity in Supervised Learning". NeurIPS Proceedings.
- AI 공정성 프레임워크: IBM AI Fairness 360, Google's What-If Tool
관련 위키 문서:
- AI 공정성
- 편향(Bias) 완화 기법
- 공정성의 수학적 정의
통계적 평등은 인공지능의 공정성 평가를 위한 중요한 출발점이지만, 맹목적으로 적용하기보다는 실제 맥락, 데이터 특성, 사회적 가치와 함께 종합적으로 고려되어야 합니다.
이 문서는 AI 모델(qwen-3-235b-a22b-instruct-2507)에 의해 생성된 콘텐츠입니다.
주의사항: AI가 생성한 내용은 부정확하거나 편향된 정보를 포함할 수 있습니다. 중요한 결정을 내리기 전에 반드시 신뢰할 수 있는 출처를 통해 정보를 확인하시기 바랍니다.