통계적 평등
📋 문서 버전
이 문서는 22개의 버전이 있습니다. 현재 버전 15을 보고 있습니다.
통계적 평등
개요
통계적 평등(Statistical Parity)은 인공지능(AI) 시스템의 공정성(fairness)을 평가하는 데 사용되는 중요한 개념 중 하나로, 알고리즘이 다양한 사회적 집단(예: 성별, 인종, 연령 등)에 대해 동일한 비율로 긍정적인 결과를 제공해야 한다는 원칙을 의미합니다. 이는 AI 모델이 특정 집단에 편향되지 않고, 결과 분포가 인구 통계학적 비율과 일치해야 한다는 요구를 반영합니다.
통계적 평등은 특히 채용, 대출 심사, 범죄 예측, 의료 진단 등 민감한 결정을 지원하는 AI 시스템에서 중요한 평가 기준으로 작용하며, 사회적 형평성과 법적 책임을 고려할 때 필수적인 지표로 여겨집니다.
통계적 평등의 정의
수학적으로, 통계적 평등은 다음과 같이 정의됩니다.
모델이 예측하는 긍정적인 결과(예: "대출 승인", "채용 추천")의 확률이 보호 집단(protected group, 예: 여성, 특정 인종)과 비보호 집단(non-protected group) 간에 동일해야 합니다.
$$ P(\hat{Y} = 1 \mid A = a) = P(\hat{Y} = 1 \mid A = b) $$
여기서: - $\hat{Y}$: 모델의 예측 결과 (1: 긍정, 0: 부정) - $A$: 민감한 속성 (sensitive attribute), 예: 성별, 인종 - $a, b$: 서로 다른 집단 (예: 남성 vs 여성)
즉, 통계적 평등은 예측 결과의 분포가 민감한 속성과 독립적이어야 한다는 조건을 의미합니다.
예시
예를 들어, 대출 심사 AI 모델에서 남성과 여성에게 대출을 승인하는 비율이 각각 60%라면, 통계적 평등이 유지되고 있다고 볼 수 있습니다. 그러나 남성은 70%, 여성은 40%라면 이는 통계적 평등을 위반한 것으로 간주됩니다.
통계적 평등의 장점
-
단순성과 해석 용이성
통계적 평등은 직관적으로 이해하기 쉬우며, 결과의 분포를 직접 비교함으로써 공정성 여부를 판단할 수 있습니다. -
법적 기준과의 일치
일부 국가의 평등법(예: 미국의 Civil Rights Act)은 "집단 간 동등한 결과 비율"을 요구하기 때문에, 통계적 평등은 법적 규제 준수 여부를 평가하는 데 유용합니다. -
공정성 정책 수립의 기초 자료
기업이나 정부 기관이 AI 시스템의 공정성을 감시하고 개선하기 위한 기준으로 활용될 수 있습니다.
한계와 비판
통계적 평등은 직관적이지만, 다음과 같은 한계를 지닙니다.
1. 현실 데이터의 불균형 무시
통계적 평등은 실제 자격 요건이나 능력 분포를 고려하지 않고 결과 비율만 동일하게 만들기 때문에, 성과 기반의 차별을 무시할 수 있습니다. 예를 들어, 여성 지원자의 신용 점수가 평균적으로 낮은 데이터 세트에서 무조건 남녀 동일한 대출 승인률을 강제하면, 모델의 정확성이 떨어지거나 부당한 승인이 발생할 수 있습니다.
2. 다른 공정성 기준과의 충돌
통계적 평등은 다음과 같은 다른 공정성 기준과 동시에 만족하기 어렵습니다: - 동등한 기회(Equal Opportunity) - 동등한 정확도(Equalized Odds) - 예측 정확도의 공정성(Predictive Parity)
이러한 기준들은 각각 서로 다른 수학적 조건을 요구하며, 한 모델이 모든 기준을 동시에 충족하는 것은 일반적으로 불가능합니다(이를 공정성의 불가능성 정리(Impossibility Theorem of Fairness)라고 합니다).
3. 역차별 가능성
민감한 집단에 인위적으로 더 많은 긍정적 결과를 할당함으로써 통계적 평등을 달성하려는 경우, 자격이 더 높은 비보호 집단 구성원이 차별받는 상황이 발생할 수 있습니다.
통계적 평등의 적용 사례
분야 | 적용 예시 | 주의사항 |
---|---|---|
채용 AI | 남녀 간 추천 비율 동일화 | 실제 지원자 역량 분포 고려 필요 |
금융 서비스 | 대출 승인률 집단 간 균형 | 신용도 데이터 편향 분석 필수 |
형사 사법 | 위험 점수 할당 공정성 | 역사적 데이터의 구조적 편향 반영 |
관련 공정성 기준 비교
기준 | 설명 | 수식 |
---|---|---|
통계적 평등 | 모든 집단에 동일한 긍정 예측 비율 | $P(\hat{Y}=1\|A=a) = P(\hat{Y}=1\|A=b)$ |
동등한 기회 | 진짜 긍정 사례에 대해 동일한 예측 확률 | $P(\hat{Y}=1\|Y=1, A=a) = P(\hat{Y}=1\|Y=1, A=b)$ |
동등한 정확도 | 진짜 긍정/부정 모두에 대해 동일한 예측률 | $P(\hat{Y}=1\|Y=y, A=a) = P(\hat{Y}=1\|Y=y, A=b)$ |
예측 정확도의 공정성 | 긍정 예측 시 진짜 긍정일 확률 동일 $P(Y=1\|\hat{Y}=1, A=a) = P(Y=1\|\hat{Y}=1, A=b)$ |
참고 자료 및 관련 문서
- Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning. https://fairmlbook.org/
- Hardt, M., Price, E., & Srebro, N. (2016). "Equality of Opportunity in Supervised Learning". NeurIPS.
- Mehrabi, N. et al. (2021). "A Survey on Bias and Fairness in Machine Learning". ACM Computing Surveys.
관련 위키 문서
통계적 평등은 AI 공정성 평가의 출발점으로 유용하지만, 실제 적용 시 맥락과 다른 공정성 기준을 종합적으로 고려해야 합니다. 단순한 수치적 균형보다는, 공정성의 목적과 사회적 영향을 명확히 정의하는 것이 중요합니다.
이 문서는 AI 모델(qwen-3-235b-a22b-instruct-2507)에 의해 생성된 콘텐츠입니다.
주의사항: AI가 생성한 내용은 부정확하거나 편향된 정보를 포함할 수 있습니다. 중요한 결정을 내리기 전에 반드시 신뢰할 수 있는 출처를 통해 정보를 확인하시기 바랍니다.