# 어휘 크기 ## 개요 **어휘 크기**(ocabulary Size)는 자연어처리(NLP, Natural Language Processing) 모델 설계에서 중요한 하이퍼파라미터 중 하나로, 모델이 인식하고 처리할 수 있는 고유 단어(또는 서브워드 토큰)의 총 수를 의미합니다. 어휘 크기는 언어 모델의 표현 능력, 메모리 사용량, 학습 및 추론 속도,...
검색 결과
"하이퍼파라미터"에 대한 검색 결과 (총 83개)
# ROUGE ## 개요 ROUGE(RCALL-Oriented Understudy for Gisting Evaluation)는 자연어 처리(Natural Language Processing, NLP) 분야에서 주로 **자동 요약**(Automatic Summarization) 또는 **기계 번역**(Machine Translation) 시스템의 출력 결...
# 서포트 벡터 머신 ## 개요 **서트 벡터 머신**(Support Vector Machine, SVM)은 기계학습(Machine Learning) 분야에서 널리 사용되는 지도 학습(supervised learning) 알고리즘으로, 주로 분류(classification) 문제에 활용되지만 회귀(regression) 및 이상치 탐지(outlier de...
# 성능 평가 인공지능(AI) 모델의 **성능 평가Performance Evaluation)는 개발된 모델이 주어진 과제(Task)를 얼마나 정확하고 신뢰성 있게 수행하는지를 정량적·정성적으로 분석하는 과정입니다. 모델의 훈련 과정 이후, 성능 평가는 모델의 실용성과 신뢰성을 판단하는 핵심 단계로, 실제 배포 전 반드시 수행되어야 합니다. 특히 머신러닝 ...
# SVM (서포트 벡터 머신) 서포트 벡터 머신(Support Vector Machine, SVM은 머신러닝 분에서 널리 사용되는 지도 학습 기반의 **분류 알고리즘**으로, 주로 이진 분류 문제에 사용되지만 다중 클래스 분류에도 확장 가능하다. SVM은 데이터 포인트를 고차원 공간으로 매핑하여 최적의 경계선(hyperplane)을 찾아 서로 다른 클래...
# 최적화 ## 개요 최적화(Opt)는 주어진 조건에서 가장 좋은 해를 찾는 과정을 의미하며, 데이터과학 기계학습, 공학 경제학 등 다양한 분야에서 핵심적인 역할을 한다.과학에서는 모델의 예측 성능을 향상시키기 위해 손실 함수(Loss Function)를 최소화, 제약 조건을 만족하면서 목표 함수를 극대화/극소화하는 작업이 자주 발생한다. 최적화 알고리...
# RoBERTa ## 개요 RoBERTa(**Robustly Optimized BERTtraining Approach**)는 자연어 처리(NLP) 분야에서 널리 사용되는 언어 모델로, BERT(Bidirectional Encoder Representations from Transformers)를 개선하여 더 강력하고 효율적인 성능을 발휘하도록 설계된 ...
# K-Fold Cross- **K-Fold Cross-Validation**(K-겹 교차 검증)은 머신러닝과 통계 모델의 성능을 평가하기 위해 널리 사용되는 기입니다. 이 방법은 데이터를 여러 개의 부분으로 나누어 반복적으로 훈련과 검증을 수행함으로써 모델의 일반화 능력을 더 정확하게 평가할 수 있도록 도와줍니다. 특히, 데이터셋의 크기가 제한적일 때 ...
# L2 노름## 개요 **L2 노름L2 norm) 벡터 공간에서 벡터의 크기 또는 길이를 측정하는 방법 중 하나로, 선형수학, 기계학습, 신호, 수치해 등 다양한 분야에서 널리 사용되는 중요한 개념이다. L2 노름은 유클리드 노름(Euclidean norm)이라고도 하며, 일반적인 직관적인 '' 개념과 일한다. 이 문서에서는2 노름의의, 수학 표현, 성...
K-Fold 타 인코딩 개요 **K-Fold 타겟 인코딩**(K-Fold Target Encoding)은 범주형 변수(Categorical Variable)를 수치형 변수로 변환 고급 인코 기법 중 하나로, 특히 **과적합**(Overfitting) 방지하기 위해계된 방법입니다. 범주형 변수의 카테고리를 해당테고리에하는 타겟 변수의 평균값으로 대체하는...
# smoothing parameter ## 개요 **Smoothing parameter**(스무딩 파라터)는 머신러닝 및계 모델링에서 데이터의 노이즈ise)를 줄 모델의 일반화능을 향상시키기 위해 사용되는 중요한 하이퍼파라미터입니다. 이 파라미터 모델이 데이터에 **과적합overfitting)되는 것을 방지하고, 관측된 데이터의 불확실성이나 변동성을 ...
# Doc2Vec **Doc2Vec**은 문서)를 고정된 차원의 밀 벡터(dense vector)로 변환하는 **임베딩 기법**으로, 자연어 처리(NLP) 분야에서 문서 간의 의미적 유사도를 계산하거나 문서 분류, 군집화 등의 작업에 널리 사용됩니다. 이 기법은 단어를 벡터로 표현하는 Word2Vec의 확장판으로, 단어뿐만 아니라 전체 문서를 하나의 벡터...
BLEU BLEU(Bilingual Evaluationstudy)는 기번역 시스템의 출력질을 자동으로 평가하기 위해 개발된 지표로, 202년 IBM의 Kishore Papineni와 동료들에 의해 제안되었습니다. 이 지표는 기계 생성한 번역 문장을 이상의 인간 전문 번역가가 작성한참조 번역"(reference translation)과 비교함으로써 유사를 ...
# Bayesian Target Encoding ## 개요 **베이지안 타겟 인코딩**(Bayesian Target Encoding)은 범주형 변수(categorical variable)를 수치형 변수로 변환하는 고급 인코딩 기법 중 하나로, 특히 머신러닝 모델의 성능 향상을 위해 사용된다. 이 기법은 단순한 타겟 인코딩(target encoding)의...
# MSE ## 개요 **MSE**(Mean Squared Error, 평균 제곱 오차)는 인공지능 및 기계학습 모델의 성능을 평가하는 대표적인 회귀(regression) 문제 지표 중 하나입니다. 예측값과 실제 관측값 사이의 차이를 제곱한 후, 그 평균을 취함으로써 모델의 예측 정확도를 수치화합니다. MSE는 오차의 크기를 강조하며, 특히 큰 오차에 ...
# 경사하강법경사하강법(Graidentcent)은 기계습과 인공지능 분야에서 모델의 학습 과정에서 손실 함수(Loss Function)를 최소화하기 위해 널리 사용되는 **최적화 알고리즘**이다. 이 알고리즘은 주어진 함수의 기울기(경사)를 계산하여, 그 기울기가 가장 가파르게 내려가는 방향으로 매 반복마다 모델의 매개변수를 조정함으로써 최솟값을 찾아가는 ...
테스트 데이터 개요 **스트 데이터**(Test Data는 데이터 과학 및 기계 학습 프로젝트에서 모델의능을 평가하기 위해 사용되는 데이터의 하 집합입니다.적으로 전체 데이터셋은 훈련(Training), 검증(Validation), 테스트(Test) 데이터로 분할되며, 이 중 **테 데이터**는 모델발 과정에서 **최종 평가 단**에서 사용됩니다 테스...
Mean Encoding ** Encoding**(평균코딩)은 범주형 변수(Categorical Variable)를 수치형 변수로 변환하는 고 인코딩 기법 중로, 주로 **지도 학습**(Supervised Learning)에서 회귀 또는 분류 문제에 활용됩니다. 이 방법은 범주형 변수의 각 범주(Category)를 그 범주에 해당하는 타겟 변수(Targe...
# 스무딩 타깃 인코딩 스무딩 타깃코딩(Smoothing Target Encoding은 범주형 변수를 수치형 변수로 변환하는 **데이터 정제 기법 중 하나로, 특히 **머신러닝 모델의 성능 향상**을 위해 널리 사용된다. 이 기법은 범주형 변수의 각 카테고리에 대해 해당 카테고리가 목표 변수(target variable)에 미치는 영향을 수치로 표현하면서...
# 타겟 인코딩 ## 개요 **타겟 인코딩**(Target)은 머신러닝과 데이터 과학에서 범주형 변수(categorical variable)를 수치형으로 변환하는 고급 인코딩 기법 중 하나입니다. 이 방법은 각 범주(category)를 해당 범주에 속하는 타겟(target) 변수의 통계적 요약값(예: 평균, 중앙값 등)으로 대체함으로써, 범주형 변수와 ...