# 미니 배치 경사 하강법 ## 개요 미니 배치 경사 하강법(Mini-Batch Gradient Descent)은 기계 학습에서 파라미터 최적화를 위한 주요 알고리즘 중 하나로, **배치 경사 하강법(Batch Gradient Descent)**과 **스토캐스틱 경사 하강법(Stochastic Gradient Descent)**의 중간 형태이다. 이 방법...
검색 결과
"경사 하강법"에 대한 검색 결과 (총 15개)
# 경사 하강법 ## 개요 경사 하강법(Gradient Descent)은 머신러닝에서 모델의 파라미터를 최적화하기 위한 기본적인 최적화 알고리즘입니다. 이 방법은 **비용 함수(cost function)**의 기울기(gradient)를 계산하여, 매개변수를 반복적으로 조정해 최소값을 찾는 과정입니다. 경사 하강법은 신경망, 회귀 모델 등 다양한 학습 알고...
# Global Vectors for Word Representation**Global Vectors for Word RepresentationGloVe) 단어를 고차 벡터 공간에 표현하는 대표적인 **언어 모델링 기법** 중 하나로, 단어 간의 의미적 관계를 수치적으로 포착하는 데 목적을 둔다. GloVe는 분포 가설(Distributional Hypot...
# CRF: 조건부 확률 필드 (Conditional Random Field) ## 개 조건부 확률 필드(**Conditional Random Field**, 이하 **CRF**)는 주어진 입력 시퀀스에 기반하여 출력 레이블 시퀀스를 예측하는 **확률적 그래프 모델**의 일종입니다. 자연어처리(NLP) 분야에서 특히 토큰 수준의 레이블링 작업, 예를 들...
# 최적화 ## 개요 최적화(Opt)는 주어진 조건에서 가장 좋은 해를 찾는 과정을 의미하며, 데이터과학 기계학습, 공학 경제학 등 다양한 분야에서 핵심적인 역할을 한다.과학에서는 모델의 예측 성능을 향상시키기 위해 손실 함수(Loss Function)를 최소화, 제약 조건을 만족하면서 목표 함수를 극대화/극소화하는 작업이 자주 발생한다. 최적화 알고리...
GloVe ##요 **GVe**(Global Vectors for Word)는 스탠포드 대학교의 제프리 펜팅턴(Jeffrey Pennington), 리처드 소처(Richard Socher), 크리스토퍼 맨닝(Christopher D. Manning)이 2014년에 제안한 단어 임베딩(word embedding) 기법입니다. GloVe는 단어의 의미를 실...
# 최적화 적화(Optimization)는 주진 조건 하에서 가장 좋은 해를 찾는 과정을 의미하며, 데이터과학 분야에서 핵심적인 역할을 한다. 다양한 문제를 수적으로 모델링한 후, 목적 함수(objective function)를 최소화하거나 최대화하는 최적의 해를 도출하는 것이 목표이다. 최적화는 머신러닝, 통계 분석, 운영 연구, 공학 설계 등 수많은 ...
# 정규 방정식 ## 개요 정규 방정식(Normal Equation)은 **선형 회귀 분석**(Linear Regression)에서 최적의 파라미터(계수)를 직접 계산하는 수학적 방법입니다. 이 방법은 반복적 최적화 알고리즘인 경사 하강법(Gradient Descent)과 달리, 행렬 연산을 통해 해를 한 번에 도출합니다. 주로 **작은 데이터셋** 또는...
# 목적 함수 ## 개요 목적 함수(objective function)는 데이터과학과 최적화 문제에서 핵심적인 역할을 하는 수학적 함수로, 모델의 성능을 평가하거나 최적의 해를 도출하기 위해 최소화 또는 최대화하는 대상입니다. 기계학습에서는 모델의 예측 오차를 줄이는 것을 목표로 하며, 수학적 최적화에서는 특정 조건 하에서 최적의 해를 찾는 데 사용됩니다...
# 백프로파게이션 (Backpropagation) ## 개요 백프로파게이션(Backpropagation)은 인공 신경망(Artificial Neural Network, ANN)을 학습시키는 데 사용되는 주요 알고리즘 중 하나입니다. 이 기법은 **오차 역전파**라고도 불리며, 네트워크의 출력과 실제 타겟 값 사이의 오차를 최소화하기 위해 가중치와 편향을 ...
# 시그모이드 함수 ## 개요 시그모이드 함수(Sigmoid Function)는 **0에서 1 사이의 값을 출력**하는 비선형 활성화 함수로, 인공지능(AI) 및 머신러닝(ML) 분야에서 널리 사용됩니다. 이 함수는 로지스틱 회귀(Logistic Regression), 신경망(Neural Network) 등에서 **확률을 예측**하거나 **이진 분류(Bi...
# 배치 크기 ## 개요 배치 크기(Batch Size)는 머신러닝 모델 훈련 중 **데이터 샘플을 한 번에 처리하는 수량**을 의미합니다. 이 값은 경사 하강법(Gradient Descent)과 같은 최적화 알고리즘에서 매개변수 업데이트의 주기를 결정하며, 모델 학습 속도, 메모리 사용량, 수렴 성능에 직접적인 영향을 미칩니다. 배치 크기는 일반...
# 학습률 ## 개요 학습률(Learning Rate)은 기계학습 모델이 손실 함수를 최소화하기 위해 파라미터를 업데이트할 때의 변화량을 결정하는 **핵심 하이퍼파라미터**입니다. 이 값은 모델의 학습 속도와 수렴 성능에 직접적인 영향을 미치며, 적절한 설정 없이는 과적합(overfitting)이나 수렴 실패(convergence failure)로 이어질...
# 다중 로지스틱 회귀 ## 개요 다중 로지스틱 회귀(Multinomial Logistic Regression)는 **이산형 종속 변수**를 예측하기 위한 통계적 모델로, 이진 로지스틱 회귀(Binary Logistic Regression)의 확장 형태이다. 이 방법은 두 가지 이상의 클래스(범주)를 가진 문제에 적용되며, 각 클래스에 대한 확률을 동시에...
# 회귀 계수 ## 개요 회귀 계수는 통계학에서 변수 간 관계를 모델링하고 예측하는 데 사용되는 핵심 개념입니다. 주로 선형 회귀 분석을 통해 독립변수와 종속변수 사이의 수량적 관계를 정량화합니다. 이 문서에서는 회귀 계수의 정의, 종류, 계산 방법, 해석 방식 및 실제 적용 사례에 대해 상세히 설명합니다. --- ## 정의 및 개념 ### 선형 회...