# 과적합 (Overfitting) ## 개요/소개 과적합(overfitting)은 머신러닝 모델이 훈련 데이터에 지나치게 적응하여, 새로운 데이터에 대한 일반화 능력이 떨어지는 현상을 의미합니다. 이는 모델이 학습 데이터의 **노이즈**와 **특수한 패턴**을 포함해 학습하게 되면서 발생하며, 훈련 성능은 우수하지만 테스트 성능은 저하되는 문제가 있습니...
검색 결과
"과적합"에 대한 검색 결과 (총 172개)
# 결정계수 ## 개요 **결정계수**(決定係數, 영어: Coefficient of Determination)는 회귀분석에서 독립변수(설명변수)가 종속변수(반응변수)의 변동을 얼마나 잘 설명하는지를 나타내는 통계량이다. 일반적으로 **R²**(R-squared)로 표기되며, 그 값은 0에서 1 사이의 실수로 표현된다. 결정계수는 회귀 모형의 적합도(Go...
# 딥러닝 기반 방법 ## 개요 딥러닝 기반 방법은 머신러닝의 한 분야로, 인공신경망(Artificial Neural Networks, ANN)의 다층 구조를 활용하여 데이터에서 복잡한 패턴과 특징을 자동으로 학습하는 기술입니다. 특히 깊은 네트워크 구조(즉, 여러 개의 은닉층을 가진 구조)를 사용함으로써 기존의 머신러닝 기법들이 해결하기 어려웠던 고차...
# 가중치 행렬 ## 개요 **가중치 행렬**(Weight Matrix)은 인공신경망(Artificial Neural Network, ANN)의 핵심 구성 요소 중 하나로, 뉴런 간의 연결 강도를 수치적으로 표현한 행렬입니다. 이 행렬은 입력 신호가 네트워크를 통해 전파될 때 각 연결 경로에 적용되는 가중치를 담고 있으며, 신경망이 학습하는 과정은 주로...
# RMSE ## 개요 **RMSE**(Root Mean Square Error, 평균 제곱근 오차)는 회귀분석에서 예측 모델의 정확도를 평가하는 대표적인 지표 중 하나입니다. RMSE는 관측값과 모델의 예측값 사이의 차이(잔차)를 제곱한 후, 그 평균을 구하고 제곱근을 취하여 계산됩니다. 이 값은 오차의 크기를 절대적인 수치로 표현하므로, 예측의 정밀...
# LightGBM LightGBM은 마이크로소프트에서 개발한 고성능의 경량 그래디언트 부스팅 프레임워크로, 대규모 데이터셋에서도 빠르고 효율적인 학습을 가능하게 하는 머신러닝 알고리즘입니다. 특히 분류, 회귀, 순위 예측 등 다양한 머신러닝 과제에서 뛰어난 성능을 보이며, XGBoost, CatBoost 등과 함께 대표적인 그래디언트 부스팅 트리(Gra...
# 편향 ## 개요 머신러닝 모델의 성능을 평가할 때 중요한 요소 중 하나는 **편향**(Bias)입니다. 편향은 모델이 학습 데이터의 패턴을 얼마나 잘 반영하는지를 나타내는 지표로, 일반적으로 **예측값과 실제값 사이의 평균적인 차이**를 의미합니다. 낮은 편향은 모델이 데이터의 진짜 관계를 잘 포착하고 있음을, 높은 편향은 모델이 너무 단순하거나 학...
# 회귀 분석 회귀 분석(Regression Analysis)은 통계학에서 두 개 이상의 변수 간의 관계를 모델링하고 분석하는 대표적인 기법 중 하나입니다. 특히 한 변수(종속 변수)가 다른 변수들(독립 변수 또는 설명 변수)에 의해 어떻게 영향을 받는지를 수학적으로 표현함으로써 예측 및 추론을 가능하게 합니다. 회귀 분석은 경제학, 사회과학, 의학, 공...
# 최소제곱법 ## 개요 **최소제곱법**(Least Squares Method)은 관측된 데이터와 모델의 예측값 사이의 차이, 즉 **잔차**(residual)의 제곱합을 최소화하여 모델의 파라미터를 추정하는 통계적 방법이다. 이 방법은 회귀 분석, 데이터 피팅, 예측 모델링 등 데이터과학의 핵심 분야에서 널리 사용되며, 특히 선형 회귀 모델의 추정에...
# 이미지 전처리 이미지 전처리(Image Preprocessing)는 디지털 이미지를 컴퓨터 비전(Computer Vision) 또는 머신러닝 모델에 입력하기 전에 특정 목적에 맞게 변환하고 개선하는 일련의 과정을 말합니다. 이 과정은 원본 이미지의 노이즈를 제거하고, 특징을 강조하며, 모델의 학습과 추론 성능을 향상시키는 데 핵심적인 역할을 합니다. ...
# 교차 검증 기반 인코딩 ## 개요 **교차 검증 기반 인코딩**(Cross-Validation Based Encoding)은 범주형 변수(Categorical Variable)를 수치형 변수로 변환하는 과정에서 **과적합**(Overfitting)을 방지하기 위해 고안된 고급 인코딩 기법입니다. 특히 타깃 인코딩(Target Encoding)과 같은...
# train_size ## 개요 `train_size`는 머신러닝 및 데이터 과학 분야에서 모델 학습을 위한 데이터 분할 과정에서 사용되는 **하이퍼파라미터** 중 하나로, 전체 데이터셋 중 **학습 데이터**(training set)로 사용할 비율 또는 개수를 지정하는 파라미터입니다. 이 파라미터는 모델의 학습 성능과 일반화 능력에 직접적인 영향을 ...
# 지도 학습 ## 개요 **지도 학습**(Supervised Learning)은 머신러닝의 핵심 학습 방법 중 하나로, **입력 데이터**(특징, features)와 그에 대응하는 **정답 레이블**(정답, labels)이 함께 주어진 상태에서 모델이 데이터의 패턴을 학습하여 새로운 입력에 대해 정확한 출력을 예측하도록 훈련하는 방식입니다. 이 방법은...
# 다중 클래스 분류 ## 개요 다중 클래스 분류(Multiclass Classification)는 머신러닝 및 데이터 과학 분야에서 중요한 분석 기법 중 하나로, 주어진 입력 데이터를 **세 개 이상의 서로 독립적인 클래스**(카테고리)로 분류하는 작업을 말합니다. 이는 이진 분류(Binary Classification)의 일반화된 형태이며, 현실 세...
# 독립변수 ## 개요 **독립변수**(independent variable)는 통계학, 특히 회귀분석에서 중요한 개념 중 하나로, 어떤 결과나 현상에 영향을 미칠 수 있다고 가정되는 변수를 의미한다. 독립변수는 종속변수(dependent variable)의 변화를 설명하거나 예측하는 데 사용되며, 실험이나 관찰 연구에서 연구자가 조작하거나 통제할 수 ...
# 감독 학습 ## 개요 **감독 학습**(Supervised Learning)은 인공지능, 특히 머신러닝 분야에서 가장 기초적이고 널리 사용되는 학습 방식 중 하나입니다. 이 방법은 입력 데이터와 그에 대응하는 정답(레이블)이 쌍으로 주어진 상태에서 모델이 입력과 출력 사이의 관계를 학습함으로써 새로운 입력에 대한 정확한 출력을 예측할 수 있도록 합니...
# 특성 추출 ## 개요 **특성 추출**(Feature Extraction)은 데이터 과학과 머신러닝 분야에서 원시 데이터(raw data)로부터 유의미한 정보를 추출하여 모델 학습에 적합한 형태의 입력 변수(특성, features)를 생성하는 과정을 의미합니다. 이는 데이터 전처리의 핵심 단계 중 하나로, 고차원 데이터의 차원 축소, 노이즈 제거, ...
# 등분산성 등분산성(等分散性, Homoscedasticity)은 통계학, 특히 회귀분석에서 매우 중요한 가정 중 하나로, 회귀 모형의 잔차(residuals)가 모든 독립변수 값에 대해 동일한 분산을 가진다는 성질을 의미합니다. 이 가정이 만족되지 않을 경우, 회귀 계수의 추정치는 여전히 불편(unbiased)할 수 있지만, 표준오차의 추정이 부정확해져...
# 다중 선형 회귀 다중 선형 회귀(Multiple Linear Regression)는 하나의 종속 변수(dependent variable)와 두 개 이상의 독립 변수(independent variables) 간의 선형 관계를 모델링하는 통계적 기법이다. 머신러닝과 통계학에서 널리 사용되며, 특히 수치 예측 문제(regression problems)에서 ...
# 매개변수 민감성 ## 개요 **매개변수 민감성**(Parameter Sensitivity)은 데이터과학 및 머신러닝 모델에서 모델의 출력 또는 성능이 특정 매개변수(Parameter)의 변화에 얼마나 민감하게 반응하는지를 평가하는 개념이다. 이는 모델의 안정성, 해석 가능성, 그리고 신뢰성을 판단하는 데 중요한 요소로 작용하며, 특히 하이퍼파라미터 ...