# 풀링 ## 개요 **풀링**(Pooling)은 **합성곱 신경망**(CNN, Convolutional Neural Network)에서 핵심적인 역할을 하는 연산 기법으로, 주로 **공간적 계층 구조**를 형성하고 **특징 추출**을 돕는다. 이 기법은 입력 데이터(예: 이미지)의 공간적 차원(높이, 너비)을 축소하여 계산 효율성을 높이면서도 중요한 정...
검색 결과
"모델 복잡도"에 대한 검색 결과 (총 10개)
Okay, I to write a professional Wikipedia document about Lasso Regression based on the given structure and requirements. Let's start by understanding the classification and keywords. The main category...
# L2 정규화 ## 개요 L2 정규화(Ridge Regularization)는 머신러닝 모델의 **과적합**(Overfitting)을 방지하기 위해 사용되는 기법입니다. 이는 손실 함수(Loss Function)에 **가중치의 제곱합**을 패널티 항으로 추가하여 모델 복잡도를 제어하는 방식으로 작동합니다. 특히 데이터가 적거나 특성(Feature) 수가...
# 잔차 제곱합 ## 개요 잔차 제곱합(Sum of Squared Residuals, SSR)은 **회귀 분석**에서 모델의 예측값과 실제 관측값 간의 차이를 정량적으로 평가하는 지표입니다. 이 값은 잔차(residual)를 제곱한 후 모든 관측치에 대해 합산한 것으로, 모델의 적합도를 판단하는 핵심 요소입니다. 잔차 제곱합이 작을수록 모델이 데이터에 잘...
# 과적합 (Overfitting) ## 개요/소개 과적합(overfitting)은 머신러닝 모델이 훈련 데이터에 지나치게 적응하여, 새로운 데이터에 대한 일반화 능력이 떨어지는 현상을 의미합니다. 이는 모델이 학습 데이터의 **노이즈**와 **특수한 패턴**을 포함해 학습하게 되면서 발생하며, 훈련 성능은 우수하지만 테스트 성능은 저하되는 문제가 있습니...
# 정규화 (Regularization) ## 개요 정규화는 머신러닝 모델이 훈련 데이터에 과적합(overfitting)되는 것을 방지하기 위해 사용하는 기법입니다. 과적합은 모델이 학습 데이터의 노이즈나 특수한 패턴을 너무 잘 기억해, 새로운 데이터에 대한 일반화 능력이 떨어지는 현상을 의미합니다. 정규화는 모델의 복잡도를 제어하여 이 문제를 해결하고,...
# 범주형 데이터 포인트 ## 개요 범주형 데이터 포인트(Categorical Data Point)는 특정 변수가 **명확한 범주** 또는 **그룹**에 속하는 값을 가지는 데이터 유형이다. 이는 수치적 정보보다는 **분류**나 **속성**을 나타내며, 데이터 과학에서 분석 전처리 및 모델링 단계에서 중요한 역할을 한다. 예를 들어, "성별(남/여)", ...
# PCA (주성분 분석) ## 개요 PCA(Principal Component Analysis)는 데이터 과학에서 널리 사용되는 **차원 축소 기법**으로, 고차원 데이터를 저차원 공간으로 변환하면서도 최대한 많은 정보를 유지하는 방법이다. 주성분 분석은 데이터의 분산을 최대화하는 방향(주성분)을 찾아내어, 이를 통해 데이터의 구조를 간결하게 표현하고 ...
# 배치 크기 ## 개요 배치 크기(Batch Size)는 머신러닝 모델 훈련 중 **데이터 샘플을 한 번에 처리하는 수량**을 의미합니다. 이 값은 경사 하강법(Gradient Descent)과 같은 최적화 알고리즘에서 매개변수 업데이트의 주기를 결정하며, 모델 학습 속도, 메모리 사용량, 수렴 성능에 직접적인 영향을 미칩니다. 배치 크기는 일반...
# 다중 로지스틱 회귀 ## 개요 다중 로지스틱 회귀(Multinomial Logistic Regression)는 **이산형 종속 변수**를 예측하기 위한 통계적 모델로, 이진 로지스틱 회귀(Binary Logistic Regression)의 확장 형태이다. 이 방법은 두 가지 이상의 클래스(범주)를 가진 문제에 적용되며, 각 클래스에 대한 확률을 동시에...