통계적 평등
📋 문서 버전
이 문서는 22개의 버전이 있습니다. 현재 버전 2을 보고 있습니다.
통계적 평등
통계적 평등(Statistical Parity)은 인공지능 시스템의 공정성(Fairness)을 평가하는 대표적인 기준 중 하나로, 알고리즘이 다양한 사회적 집단(예: 성별, 인종, 연령 등)에 대해 동일한 비율로 긍정적인 결과를 부여하는지를 측정합니다. 이 개념은 머신러닝 모델이 특정 집단에 대해 체계적인 차별을 하지 않도록 보장하기 위한 수학적 기준으로 널리 활용되며, 특히 채용, 대출 승인, 법 집행 예측 등 민감한 분야에서 중요하게 다뤄집니다.
통계적 평등은 '결과의 균형'을 강조하며, 모델의 예측 결과가 특정 속성을 가진 집단 간에 균일하게 분포되어야 한다는 원칙을 기반으로 합니다. 이 문서에서는 통계적 평등의 정의, 수학적 표현, 장단점, 적용 사례 및 관련 공정성 기준과의 비교를 통해 그 의미와 활용을 깊이 있게 설명합니다.
정의와 수학적 표현
통계적 평등은 민감한 특성(sensitive attribute, 예: 성별)을 기준으로 나눈 두 집단 A와 B가 있을 때, 두 집단이 모델의 긍정적 예측(예: "대출 승인", "채용 추천")을 받을 확률이 동일하거나 유사해야 한다는 원칙입니다.
수식 정의
집단 ( A )와 ( B )를 각각 민감한 특성에 따라 구분된 그룹이라고 하면, 통계적 평등은 다음과 같이 표현됩니다:
[ P(\hat{Y} = 1 \mid A) = P(\hat{Y} = 1 \mid B) ]
여기서: - ( \hat{Y} ): 모델의 예측 결과 (1은 긍정적 결정, 0은 부정적 결정) - ( A, B ): 민감한 특성에 따른 집단 (예: 여성 vs 남성)
즉, 모델이 여성에게 긍정적 결정을 내릴 확률과 남성에게 내릴 확률이 같아야 한다는 의미입니다.
예시
를 들어, 대출 심사 모델에서 남성과 여성의 대출 승인률이 각각 65%와 64%라면, 이는 통계적 평등에 상대적으로 부합한다고 볼 수 있습니다. 그러나 남성은 80%, 여성은 40%라면 통계적 평등이 위반된 것으로 판단할 수 있습니다.
통계적 평등의 장점
- 단순하고 해석이 쉬움: 결과의 비율 차이만으로 공정성을 판단할 수 있어 정책 결정자나 일반 대중에게 직관적으로 이해됩니다.
- 형식화된 기준 제공: 공정성의 추상적인 개념을 수치화하여 모델 간 비교나 규제 준수 여부를 평가할 수 있게 합니다.
- 제도적 적용 가능성: 정부 기관이나 기업에서 공정성 감사를 수행할 때 기준으로 활용 가능합니다.
한계와 비판
통계적 평등은 직관적이지만 다음과 같은 한계를 가집니다:
1. 현실 기준 무시
모델이 통계적 평등을 만족하더라도, 실제 자격 요건의 차이를 반영하지 않을 수 있습니다. 예를 들어, 여성 지원자의 평균 신용 점수가 낮은데도 불구하고 대출 승인률을 남성과 같게 맞추면, 이는 실질적인 위험 관리 기준을 왜곡할 수 있습니다.
2. 개별 공정성 훼손
개인의 능력이나 조건에 따라 결정이 내려져야 하는 상황에서, 집단 전체의 결과 비율만 맞추려는 접근은 개별 차별(individual unfairness)을 초래할 수 있습니다.
3. 다른 공정성 기준과의 충돌
통계적 평등은 다음과 같은 다른 공정성 기준과 동시에 만족하기 어렵습니다: - 동등한 정확도(Equalized Odds) - 동등한 기회(Equal Opportunity) - 예측 정확성의 균형(Predictive Parity)
예를 들어, 특정 집단에서 모델의 정확도가 낮다면, 통계적 평등을 유지하면서 정확도 균형을 맞추는 것은 불가능할 수 있습니다.
관련 공정성 기준과 비교
기준 | 설명 | 통계적 평등과의 차이 |
---|---|---|
Equalized Odds | 각 집단에서 참양성률(TPR)과 거짓양성률(FPR)이 동일해야 함 | 결과 비율보다는 분류 정확도의 균형을 중시함 |
Equal Opportunity | 참양성률(TPR)만 동일해야 함 | 긍정적 결과를 받을 기회의 균형을 강조 |
Predictive Parity | 양성 예측의 정확도(PPV)가 집단 간 동일해야 함 | 예측의 신뢰도에 초점 |
이러한 기준들은 서로 간에 수학적으로 동시 만족이 불가능한 경우가 많으며, 이는 공정성의 본질적 딜레마를 보여줍니다.
적용 사례
- 금융 서비스: 대출 승인 모델에서 성별 또는 인종별 승인률을 분석하여 통계적 평등 위반 여부를 점검.
- 채용 AI: 이력서 선별 시 여성 지원자에 대한 추천률이 낮은지 평가.
- 형사 사법 시스템: 위험 점수 모델에서 특정 인종 집단에 더 높은 위험 점수를 부여하는지 분석.
참고 자료 및 관련 문서
- Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning. https://fairmlbook.org
- Dwork, C. et al. (2012). "Fairness Through Awareness". Proceedings of ITCS.
- Google AI Principles – Fairness: https://ai.google/responsibilities
관련 문서: 공정성 기준, 편향(Bias)의 유형, 공정한 머신러닝
통계적 평등은 인공지능의 공정성 평가를 위한 중요한 출발점이지만, 현실적 맥락과 다른 공정성 기준과의 균형을 고려해야 합니다. 모델 개발자는 단순히 결과의 균형만을 추구하기보다는, 어떤 공정성 정의가 해당 도메인에 적합한지를 신중히 판단해야 합니다.
이 문서는 AI 모델(qwen-3-235b-a22b-instruct-2507)에 의해 생성된 콘텐츠입니다.
주의사항: AI가 생성한 내용은 부정확하거나 편향된 정보를 포함할 수 있습니다. 중요한 결정을 내리기 전에 반드시 신뢰할 수 있는 출처를 통해 정보를 확인하시기 바랍니다.