Okay, I to write a professional Korean Wikipedia-style document about "매개변수 (parameters) under the of machine learning. Let me start understanding the requirements. The wants a markdown document with ...
검색 결과
"Gradient Descent"에 대한 검색 결과 (총 12개)
```markdown # 비볼록 최적화 ## 개요 비볼록 최적화(Non-convex Optimization)는 데이터과학과 기계학습에서 핵심적인 역할을 하는 수학적 최적화 문제입니다. 볼록 최적화 문제와 달리, 비볼록 문제는 여러 국소 최소값(Local Minima)과 안장점(Saddle Point)을 가질 수 있어 해법 도출이 복잡합니다. 특히 딥러닝,...
# L2 정규화 ## 개요 L2 정규화(Ridge Regularization)는 머신러닝 모델의 **과적합**(Overfitting)을 방지하기 위해 사용되는 기법입니다. 이는 손실 함수(Loss Function)에 **가중치의 제곱합**을 패널티 항으로 추가하여 모델 복잡도를 제어하는 방식으로 작동합니다. 특히 데이터가 적거나 특성(Feature) 수가...
# 정규 방정식 ## 개요 정규 방정식(Normal Equation)은 **선형 회귀 분석**(Linear Regression)에서 최적의 파라미터(계수)를 직접 계산하는 수학적 방법입니다. 이 방법은 반복적 최적화 알고리즘인 경사 하강법(Gradient Descent)과 달리, 행렬 연산을 통해 해를 한 번에 도출합니다. 주로 **작은 데이터셋** 또는...
# 목적 함수 ## 개요 목적 함수(objective function)는 데이터과학과 최적화 문제에서 핵심적인 역할을 하는 수학적 함수로, 모델의 성능을 평가하거나 최적의 해를 도출하기 위해 최소화 또는 최대화하는 대상입니다. 기계학습에서는 모델의 예측 오차를 줄이는 것을 목표로 하며, 수학적 최적화에서는 특정 조건 하에서 최적의 해를 찾는 데 사용됩니다...
# 백프로파게이션 (Backpropagation) ## 개요 백프로파게이션(Backpropagation)은 인공 신경망(Artificial Neural Network, ANN)을 학습시키는 데 사용되는 주요 알고리즘 중 하나입니다. 이 기법은 **오차 역전파**라고도 불리며, 네트워크의 출력과 실제 타겟 값 사이의 오차를 최소화하기 위해 가중치와 편향을 ...
# 연쇄법칙 (Chain Rule) ## 개요/소개 연쇄법칙(Chain Rule)은 미적분학에서 복합함수(composite function)의 도함수를 계산하는 기본적인 규칙이다. 두 함수 $ f(x) $와 $ g(x) $가 주어졌을 때, $ h(x) = f(g(x)) $로 정의된 복합함수의 도함수는 $ h'(x) = f'(g(x)) \cdot g'(x)...
# 시그모이드 함수 ## 개요 시그모이드 함수(Sigmoid Function)는 **0에서 1 사이의 값을 출력**하는 비선형 활성화 함수로, 인공지능(AI) 및 머신러닝(ML) 분야에서 널리 사용됩니다. 이 함수는 로지스틱 회귀(Logistic Regression), 신경망(Neural Network) 등에서 **확률을 예측**하거나 **이진 분류(Bi...
# 미니 배치 경사 하강법 ## 개요 미니 배치 경사 하강법(Mini-Batch Gradient Descent)은 기계 학습에서 파라미터 최적화를 위한 주요 알고리즘 중 하나로, **배치 경사 하강법(Batch Gradient Descent)**과 **스토캐스틱 경사 하강법(Stochastic Gradient Descent)**의 중간 형태이다. 이 방법...
# 경사 하강법 ## 개요 경사 하강법(Gradient Descent)은 머신러닝에서 모델의 파라미터를 최적화하기 위한 기본적인 최적화 알고리즘입니다. 이 방법은 **비용 함수(cost function)**의 기울기(gradient)를 계산하여, 매개변수를 반복적으로 조정해 최소값을 찾는 과정입니다. 경사 하강법은 신경망, 회귀 모델 등 다양한 학습 알고...
# 배치 크기 ## 개요 배치 크기(Batch Size)는 머신러닝 모델 훈련 중 **데이터 샘플을 한 번에 처리하는 수량**을 의미합니다. 이 값은 경사 하강법(Gradient Descent)과 같은 최적화 알고리즘에서 매개변수 업데이트의 주기를 결정하며, 모델 학습 속도, 메모리 사용량, 수렴 성능에 직접적인 영향을 미칩니다. 배치 크기는 일반...
# 다중 로지스틱 회귀 ## 개요 다중 로지스틱 회귀(Multinomial Logistic Regression)는 **이산형 종속 변수**를 예측하기 위한 통계적 모델로, 이진 로지스틱 회귀(Binary Logistic Regression)의 확장 형태이다. 이 방법은 두 가지 이상의 클래스(범주)를 가진 문제에 적용되며, 각 클래스에 대한 확률을 동시에...