# 일반화 기법 ## 개요 머신러닝 모델이 훈련 데이터에 잘추는 것(과적합, overfit)은 중요하지, 더 중요한 것은 **델이 이전 본 적 없는 새로운 데이터**(테스트)에 대해서도 작동하는 것이다. 이 능력을 **일화**(generalization라고 하며, 머신러닝의 핵심 목표 중 하나이다. 일반화 성을 향상시키기 위해 사용하는 다양한 전략과 기...
검색 결과
검색어를 입력하세요.
# 지수족 형태 지수족(Exponential Family Form)는 통계학에서 중요한 확률분의 수학적 구로, 많은 일반적인 확률분포들이 이 형태로 표현될 수 있다. 지수족은 추정 이론, 베이즈 통계, 일반화선형모형(GLM), 정보 이론 등 다양한 통계적 분석에서 핵심적인 역할을 하며, 수학적 처리의 용이성과 이론적 아름다움을 동시에 갖춘 구조이다. 본 ...
# VC 이론 VC 이론(Vapnik-Chervonenkis Theory)은 통계적 학습 이론의 핵심 기반 중 하나로, 머신러닝 모델의 일반화 능력을 수학적으로 분석하는 데 중요한 역할을. 이 이론 블라드미르 바프니크(Vladimir Vapnik)와 알세이 체르보넨키스lexey Chervonenkis가 190년대 초반에 제안하였으며, 특히 **모델의 복잡...
# 로짓(Logit) ## 개요 로짓(logit)은 통계학과 데이터 과학에서 중요한 개념으로, 확률(probability)을 **로그-오즈(log-odds)** 형태로 변환하는 함수입니다. 이는 주로 **로지스틱 회귀**(logistic regression)와 같은 분류 모델에서 사용되며, 이진 결과(예: 성공/실패, 승리/패배)를 예측할 때 유용합니다....
# 드롭아웃 (Dropout) ## 개요 드롭아웃(Dropout)은 인공지능(AI) 분야에서 네트워크 과적합(overfitting)을 방지하기 위한 **정규화 기법**으로, 신경망의 훈련 중 일부 뉴런을 무작위로 비활성화하는 방법이다. 이 기법은 2014년 제프리 힌턴(Jeffrey Hinton) 등이 발표한 논문에서 처음 소개되었으며, 현재 딥러닝 모델...