FP **FP**(False Positive, 위양성)는 데이터, 특히 머신러닝과 통계 분석에서 중요한 개념 중 하나로, **모델이 실제로는 부정 클래스**(Negative) **인 사례를 잘못되어 양성 클래스**(Positive) **로 예측한 경우**를 의미합니다. 혼동 행렬(Confusion Matrix)에서 FP는 모델의 오분류 오류를 나타내는 네...
검색 결과
"하이퍼파라미터"에 대한 검색 결과 (총 99개)
# 회귀 회귀(Regression)는 머신러닝 통계학에서 기법 중 하나로 하나 이상의 독립 변수(입력 변수)와 종속 변수(출력 변수) 사이의 관계를 모델링하여 연속 값을 예측하는 데 사용됩니다. 회귀 분석은 데이터의 패턴을 이해하고, 미래의 값을 추정하거나 간의 인과 관계를 탐색하는 데 널리 활용됩니다. 이 문서에서는 회귀 분석의 기본 개념, 주요 유형,...
# 퍼플렉서티 ## 개요 **퍼플렉서티**(plexity)는 자연어(Natural Language Processing NLP) 분야 언어 모델(Language Model)의 성능을 평가하는 대표적인 지표 중 하나입니다 직관적으로, 퍼플렉서티 모델이 주어진 텍스트 시퀀스를 예측하는 데 얼마나 '당황'하는지를 나타내는 수치로 해석할 수 있습니다. 즉, 퍼플...
# num_leaves `num_leaves`는 그래디언트 부스팅 머신 러닝 알고리즘 중 하나인 **LightGBM**(Light Gradient Boosting Machine)에서 중요한 하이퍼파라터로, 각각의 결정 트리(decision tree) 가질 수 있는 **최대 잎 노드 수**(maximum number of leaf nodes)를 지정합니다....
# 정규방정식 ## 개요 정규방정식(Normal Equation)은 **선형회귀**(Linear Regression) 문제를 해결하기 위한 해석적(analytical) 방법 중 하나로, 최소제곱법(Least Squares Method)을 사용하여 선형 모델의 계수를 직접 계산하는 수식이다. 이 방정식은 손실 함수인 **잔차 제곱합**(Sum of Squ...
# ShuffleSplit **ShuffleSplit**은 머신러닝과 데이터 과학 분야에서 모델 평가를 위해 널 사용되는 데이터 분 기법 중 하나입니다. 주어진 데이터셋을 반복적으로 무작위 섞은 후, 훈련용(train)과 검증용(validation) 데이터로 분할하는 방식으로, 특히 교차 검증(cross-validation)의 대안 또는 보완 수단으로 활...
# K-겹 교차 검증 개요 **K-겹 교차 검증**(-Fold Cross Validation)은신러닝 및 데이터 과학 분야에서 모델의 성능을 평가하는 데 널리 사용되는 통계적 기법입니다. 이 방법은 주어진 데이터셋을 학습과 검증에 반복적으로 나누어 모델의 일반화 능력을 보다 신뢰성 있게 평가할 수 있도록 도와줍니다. 특히, 데이터 양이 제한적일 때 전...
# 교차 검증 ## 개요 **교차 검**(Cross-Validation, CV) 기계학습 통계 모델의 성능을가하고 과적(overfitting) 방지하기 위해 사용되는 기법입니다. 모델이 훈련 데이터만 잘 맞추어져 새로운 데이터에 대해서는 성능이 저하되는 문제를 사전에 검출하기 위해, 데이터를 여러 번 나누어 학습과 검증을 반복하는 방식으로 작동합니다. ...
# 인공지능 ## 개요 **인공지능Artificial Intelligence, AI)은 인간의 지능을 모방하거나 이를월하는 기계적 시스템을 설계하고 구현하는 컴퓨터 과학의 한 분입니다. 인공지능은 인간이 보이는 사고, 학습, 추론, 인식, 문제 해결, 의사 결정 등의 능력을 소프트웨어나 하드웨어를 통해 재현하는 것을 목표로 합니다. 최근 수십 년간 컴퓨...
# MSE ## 개요 **MSE**(Mean Squared Error, 평균 제곱 오차)는 회귀(regression) 문제에서 예측 모델의 성능을 평가하는 데 널리 사용되는 지표입니다. 이는 예측과 실제 관측값 사이의 차이(오차)를 제곱한 후, 그 평균을 계산함으로써 모델의 정확도를 수치화합니다. MSE는 인공지능, 특히 머신러닝 및 딥러닝 모델의 학습...
# 그래디언트 부스 회귀 ## 개요 **그래디언트 부스팅 회**(Gradient Boosting Regression)는 머신러닝에서 회귀(regression) 문제를 해결하기 위해 사용되는 강력한 앙상블 학습 기법입니다. 이은 여러 개의 약한 학습기(weak learners), 주로 결정 트리(decision tree)를 순차적으로 결합하여 강한 예측 ...
투명성 확 ## 개요 인공지능(AI)의속한 발전과 함께, 시스템이 사회 전반에 미치는 영향은 점점 더 커지고 있습니다. 의료, 금융, 사법, 고용 등 민감한 분야에서 AI 기술이 의사결정을 지원하거나 직접 개입함에 따라, 시스템의 작동 방식과 결정 근거에 대한 **투명성 확보**가 중요한 윤리적 요구사항으로 떠올랐습니다. 투명성 확보란 AI 시스템의 설...
# MobileNet **MobileNet**은 구글(Google)이 개발한 경량화된 컨볼루션 신경망(Convolutional Network, CNN)키텍처로, 모바일 기기 및 임베디드 시스템과 같은 제한된 컴퓨팅 자원 환경에서 실시간 이미지 인식 및 객체 탐지를 가능하게 하기 위해 설계되었다. MobileNet은 정확도와 속도 사이의 균형을 잘 유지하면...
# One-Class SVM **One-Class SVM**(One-Class Support Vector)은 비지도 학습(Unsupervised Learning) 기반의 이상 탐지(Anomaly Detection) 알고리즘 중 하나로, 주어진 데이터가 정상(normal) 데이터인지, 아니면 이상(anomaly 또는 outlier) 데이터인지를 판단하는 데...
# L2 정규화 개요 **L2 정규화**(2 Regularization), 또는 **리지 정규화**(Ridge Regularization), **중치 감소**(Weight Decay)는 머신러닝 및 딥러닝 모델에서 **과적합**(Overfitting)을 방지하기 위해 사용되는 대표적인 정규화 기법 중 하나입니다. 이 방법은 모델의 가중치에 제약을 가하...
# 리지 회귀 리지 회귀(Ridge Regression) 선형 회귀 분석의종이지만, **과적합**(overfitting)을 방지하기 위해 정규화(regularization) 기법을 적용한 고급 회귀 모델이다. 특히 독 변수들 사이에 **다중공선성**(multicollinearity)이 존재할 때 일반 선형 회귀보다 더 안정적인 계수 추정을 제공한다. 리지...
# 어휘 크기 ## 개요 **어휘 크기**(ocabulary Size)는 자연어처리(NLP, Natural Language Processing) 모델 설계에서 중요한 하이퍼파라미터 중 하나로, 모델이 인식하고 처리할 수 있는 고유 단어(또는 서브워드 토큰)의 총 수를 의미합니다. 어휘 크기는 언어 모델의 표현 능력, 메모리 사용량, 학습 및 추론 속도,...
# ROUGE ## 개요 ROUGE(RCALL-Oriented Understudy for Gisting Evaluation)는 자연어 처리(Natural Language Processing, NLP) 분야에서 주로 **자동 요약**(Automatic Summarization) 또는 **기계 번역**(Machine Translation) 시스템의 출력 결...
# 서포트 벡터 머신 ## 개요 **서트 벡터 머신**(Support Vector Machine, SVM)은 기계학습(Machine Learning) 분야에서 널리 사용되는 지도 학습(supervised learning) 알고리즘으로, 주로 분류(classification) 문제에 활용되지만 회귀(regression) 및 이상치 탐지(outlier de...
# 성능 평가 인공지능(AI) 모델의 **성능 평가Performance Evaluation)는 개발된 모델이 주어진 과제(Task)를 얼마나 정확하고 신뢰성 있게 수행하는지를 정량적·정성적으로 분석하는 과정입니다. 모델의 훈련 과정 이후, 성능 평가는 모델의 실용성과 신뢰성을 판단하는 핵심 단계로, 실제 배포 전 반드시 수행되어야 합니다. 특히 머신러닝 ...