# 그래디언트 부스 회귀 ## 개요 **그래디언트 부스팅 회**(Gradient Boosting Regression)는 머신러닝에서 회귀(regression) 문제를 해결하기 위해 사용되는 강력한 앙상블 학습 기법입니다. 이은 여러 개의 약한 학습기(weak learners), 주로 결정 트리(decision tree)를 순차적으로 결합하여 강한 예측 ...
검색 결과
"Overfitting"에 대한 검색 결과 (총 121개)
# 파인튜닝 **파인튜닝**(Fine-tuning)은 사전 훈련된(pre-trained) 머신러닝 모델을 특정 작업이나 도메인에 맞게 추가로 훈련하여 성능을 개선하는 기법입니다. 주로 딥러닝 기반의 대규모 모델, 특히 자연어 처리(NLP), 컴퓨터 비전(CV), 음성 인식 등에서 널리 사용되며, 전이 학습(Transfer Learning)의 한 형태로 간...
# 분류 ## 개요 **분류**(Classification)는 머신러닝에서 대표적인 지도 학습(Supervised Learning 과제 중 하나로, 주어 입력 데이터를 미리 정의된 **카테고리**(클래스) 중 하나로 할당하는 작업을 말합니다. 예 들어, 이메이 스팸인지 정상인지 판단하거나, 의료 데이터를 기반으로 환자가 특정 질병에 걸렸는지를 예측하는 ...
# L2 정규화 개요 **L2 정규화**(2 Regularization), 또는 **리지 정규화**(Ridge Regularization), **중치 감소**(Weight Decay)는 머신러닝 및 딥러닝 모델에서 **과적합**(Overfitting)을 방지하기 위해 사용되는 대표적인 정규화 기법 중 하나입니다. 이 방법은 모델의 가중치에 제약을 가하...
# 다항식 커널 ## 개요 다항식널(Polynomial Kernel)은 **신러닝**, 특히 **서포트 벡터 머신**(Support Vector Machine, SVM)과 같은 커널 기반 알고리즘에서 널리 사용되는 비선형 커널 함수 하나입니다. 이 커은 입력 데이터 간의 유사도를 고차원 공간에서 효과적으로 계산함으로써, 선형적으로 분리되지 않는 복잡한 ...
# 리지 회귀 리지 회귀(Ridge Regression) 선형 회귀 분석의종이지만, **과적합**(overfitting)을 방지하기 위해 정규화(regularization) 기법을 적용한 고급 회귀 모델이다. 특히 독 변수들 사이에 **다중공선성**(multicollinearity)이 존재할 때 일반 선형 회귀보다 더 안정적인 계수 추정을 제공한다. 리지...
# 오류 탐지 ## 개요 **오류 탐지**(Error Detection)는 데이터제(Data Cleaning) 과정에서 중요한 첫 번째 단계로, 데이터셋 내에 존재하는 잘못되거나 비논리적인 값, 불일치, 결측치, 중복 데이터 등을 식별하는 작업을 말합니다. 정확한 분석과 신뢰할 수 있는 인사이트 도출을 위해서는 데이터의 품질이 필수적이며, 오류 탐지는 ...
# 성능 평가 인공지능(AI) 모델의 **성능 평가Performance Evaluation)는 개발된 모델이 주어진 과제(Task)를 얼마나 정확하고 신뢰성 있게 수행하는지를 정량적·정성적으로 분석하는 과정입니다. 모델의 훈련 과정 이후, 성능 평가는 모델의 실용성과 신뢰성을 판단하는 핵심 단계로, 실제 배포 전 반드시 수행되어야 합니다. 특히 머신러닝 ...
# SVM (서포트 벡터 머신) 서포트 벡터 머신(Support Vector Machine, SVM은 머신러닝 분에서 널리 사용되는 지도 학습 기반의 **분류 알고리즘**으로, 주로 이진 분류 문제에 사용되지만 다중 클래스 분류에도 확장 가능하다. SVM은 데이터 포인트를 고차원 공간으로 매핑하여 최적의 경계선(hyperplane)을 찾아 서로 다른 클래...
특성 변수 개요 **성 변수**(Feature Variable), 또는 단히 **특성**(Feature), **입력 변수**(Input Variable)는 데이터 과학 및 머신러닝 분야에서 모델이 학습하거나 예측을 수행하는 데 사용하는 데이터의 개별적인 속성(attribute)을 의미합니다. 예를 들어, 집값 예측 모델에서 방의 수, 면적, 위치, 연...
# K-Fold Cross- **K-Fold Cross-Validation**(K-겹 교차 검증)은 머신러닝과 통계 모델의 성능을 평가하기 위해 널리 사용되는 기입니다. 이 방법은 데이터를 여러 개의 부분으로 나누어 반복적으로 훈련과 검증을 수행함으로써 모델의 일반화 능력을 더 정확하게 평가할 수 있도록 도와줍니다. 특히, 데이터셋의 크기가 제한적일 때 ...
# 특성 ## 개요 데이터과학에서 **특성**(Feature)은 데이터 분석, 머신러닝, 통계 모델링 등에서 사용되는 기본 단위의 입력 변수를합니다. 특성 관측값이나 샘플의 속성을 수치적 또는 범주적으로 표현한 것으로, 모델이 예측하거나 분류를 수행하는 데 핵심적인 역할을 합니다. 예를 들어, 주택 가격 예측 모델에서 ‘방의 수’, ‘면적’, ‘지역’ ...
# 파인튜닝 ## 개요 **파인튜닝**(Fine-tuning)은 사전 훈련된(pre-trained) 인공지능 모델을 특정 작업이나 도메인에 맞게 추가로 훈련하여 성능을 최적화하는 기법입니다. 주로 딥러닝 기반의 자연어 처리(NLP), 컴퓨터 비전(CV), 음성 인식 등 다양한 분야에서 널리 사용되며, 전이 학습(Transfer Learning)의 핵심 ...
# L2 노름## 개요 **L2 노름L2 norm) 벡터 공간에서 벡터의 크기 또는 길이를 측정하는 방법 중 하나로, 선형수학, 기계학습, 신호, 수치해 등 다양한 분야에서 널리 사용되는 중요한 개념이다. L2 노름은 유클리드 노름(Euclidean norm)이라고도 하며, 일반적인 직관적인 '' 개념과 일한다. 이 문서에서는2 노름의의, 수학 표현, 성...
# 평균 타깃 값 ## 개요 **평균 타깃 값**(Mean Value)은 데이터과학, 특히 머신러닝과 통계 분석에서 중요한 개념 중 하나로, 특정 그룹이나 범주 내에서 **타깃 변수**(Target Variable)의 평균을 계산한 값을 의미합니다. 이 값은 주로 범주형 변수의 인코딩, 피처 엔지니어링, 모델 성능 개선 등을 위해 활용되며, 특히 **타...
K-Fold 타 인코딩 개요 **K-Fold 타겟 인코딩**(K-Fold Target Encoding)은 범주형 변수(Categorical Variable)를 수치형 변수로 변환 고급 인코 기법 중 하나로, 특히 **과적합**(Overfitting) 방지하기 위해계된 방법입니다. 범주형 변수의 카테고리를 해당테고리에하는 타겟 변수의 평균값으로 대체하는...
# smoothing parameter ## 개요 **Smoothing parameter**(스무딩 파라터)는 머신러닝 및계 모델링에서 데이터의 노이즈ise)를 줄 모델의 일반화능을 향상시키기 위해 사용되는 중요한 하이퍼파라미터입니다. 이 파라미터 모델이 데이터에 **과적합overfitting)되는 것을 방지하고, 관측된 데이터의 불확실성이나 변동성을 ...
드롭아웃## 개요 드롭아웃**(out)은 인신경망의 과적합overfitting)을 방지하기 위해안된 정규(regularization) 기 중 하나로,2014 제프리 힌턴eoffrey Hinton과 그의 동료들이 발표한 논문에서 처음 소개되었습니다. 드롭아웃은 신경망 학습 과정 중 각 뉴런을 일정 확률로 임의로 '활성화'함으로써 모델의 일반화 성능을 향상시...
# Bayesian Target Encoding ## 개요 **베이지안 타겟 인코딩**(Bayesian Target Encoding)은 범주형 변수(categorical variable)를 수치형 변수로 변환하는 고급 인코딩 기법 중 하나로, 특히 머신러닝 모델의 성능 향상을 위해 사용된다. 이 기법은 단순한 타겟 인코딩(target encoding)의...
# R² ## 개요 **R²**(R-squared, 결정계수)는 통계학 및 기계학습에서 회귀 모델의 성능을가하는 대표 지표 중 하나입니다. R² 모델이 종속 변수(dependent variable)의 분산 중 얼마나 많은 부분을 설명할 수 있는지를 나타내는 값으로, 일반적으로 0에서 1 사이의 값을 가집니다. 이 값이 1에 가까울수록 모델이 데이터의 변...