# 딥러닝 기반 방법 ## 개요 딥러닝 기반 방법은 머신러닝의 한 분야로, 인공신경망(Artificial Neural Networks, ANN)의 다층 구조를 활용하여 데이터에서 복잡한 패턴과 특징을 자동으로 학습하는 기술입니다. 특히 깊은 네트워크 구조(즉, 여러 개의 은닉층을 가진 구조)를 사용함으로써 기존의 머신러닝 기법들이 해결하기 어려웠던 고차...
검색 결과
"이진 분류"에 대한 검색 결과 (총 47개)
# LightGBM LightGBM은 마이크로소프트에서 개발한 고성능의 경량 그래디언트 부스팅 프레임워크로, 대규모 데이터셋에서도 빠르고 효율적인 학습을 가능하게 하는 머신러닝 알고리즘입니다. 특히 분류, 회귀, 순위 예측 등 다양한 머신러닝 과제에서 뛰어난 성능을 보이며, XGBoost, CatBoost 등과 함께 대표적인 그래디언트 부스팅 트리(Gra...
# F1 스코어 ## 개요 F1 스코어(F1 Score)는 기계학습과 데이터과학 분야에서 분류 모델의 성능을 평가하는 데 널리 사용되는 지표 중 하나입니다. 특히 **정밀도(Precision)**와 **재현율(Recall)**이 모두 중요한 상황에서 두 지표의 조화 평균(Harmonic Mean)을 계산하여 모델의 균형 잡힌 성능을 평가하는 데 유용합니...
# 거짓 음성 ## 개요 **거짓 음성**(False Negative, FN)은 분류 모델의 예측 결과와 실제 정답 사이의 불일치를 나타내는 중요한 평가 지표 중 하나로, 특히 **이진 분류**(binary classification) 문제에서 핵심적인 개념입니다. 거짓 음성은 실제 긍정 클래스(Positive)에 속하는 사례를 모델이 부정 클래스(Ne...
# tanh ## 개요 **tanh**(하이퍼볼릭 탄젠트, Hyperbolic Tangent)는 인공신경망에서 널리 사용되는 **비선형 활성화 함수** 중 하나입니다. 수학적으로는 입력값에 대한 하이퍼볼릭 탄젠트 값을 출력하며, 출력 범위가 **-1에서 1 사이**로 제한된다는 특징을 가지고 있습니다. 이는 신경망의 학습 안정성과 수렴 속도에 긍정적인 ...
# 다중 클래스 분류 ## 개요 다중 클래스 분류(Multiclass Classification)는 머신러닝 및 데이터 과학 분야에서 중요한 분석 기법 중 하나로, 주어진 입력 데이터를 **세 개 이상의 서로 독립적인 클래스**(카테고리)로 분류하는 작업을 말합니다. 이는 이진 분류(Binary Classification)의 일반화된 형태이며, 현실 세...
# 감독 학습 ## 개요 **감독 학습**(Supervised Learning)은 인공지능, 특히 머신러닝 분야에서 가장 기초적이고 널리 사용되는 학습 방식 중 하나입니다. 이 방법은 입력 데이터와 그에 대응하는 정답(레이블)이 쌍으로 주어진 상태에서 모델이 입력과 출력 사이의 관계를 학습함으로써 새로운 입력에 대한 정확한 출력을 예측할 수 있도록 합니...
# 비용 함수 ## 개요 비용 함수(Cost Function), 손실 함수(Loss Function는 머신러닝 및 데이터과학에서 모델의 예측 성능을 정적으로 평가하는 데 사용되는 핵심 개념이다. 이 함수는 모이 실제 데이터를 기반으로 예측한 값과 실제 관측값 사이의 차이, 즉 '오차'를 수치화하여 모델이 얼마나 잘못 예측하고 있는지를 나타낸다. 비용 함...
# 정밀도 정밀도(Precision)는 인공능, 특히 머신러닝 모의 성능을 평가하는심 지표 중 하나로, **모델이 '긍정'으로 예측한 샘플 중 실제로 긍정인 비율**을 의미합니다. 주로 분류 문제에서 사용되며, 특히 불균형 데이터셋(imbalanced dataset)에서 모델의 신뢰도를 평가하는 데 중요한 역할을 합니다. 정밀도는 모델이 긍정 예측을 할 ...
# 정밀도 균형 정밀도 균형(Precision Balance은 데이터과학, 머신러닝 모델 평가에서 중요한 중 하나로, **정밀도**(Precision)와 **재현**(Recall) 사이의 균형을 의미합니다. 이는 모델이 얼마나 정하게 긍정 클래스를 예측하는지(정밀도), 그리고 실제 긍정 샘플 중 얼마나 많은 비율을 올바르게 찾아내는지(재현율)를 고려하여 ...
# 계층적 소프맥스 ## 개요 **층적 소프맥스**(Hierarchicalmax)는 자연처리(NLP) 대용량 어휘(vocabulary)을룰 때 발생하는산 비용 문제를 해결하기 위해 제된 기술입니다 특히 언어 모델, 단어 임베딩(예: Word2Vec), 기계 번역 등에서 출력층의 소프트맥스 계산이 단어 사전의 크기에 비례하여 매우 비효율적이라는 문제가 있...
# ROC 곡선 ## 개요 ROC 곡선(Receiver Operatingistic Curve, 수기 운영 특성 곡선)은 이진류 모델의 성능을각적으로 평가하고 비교하는 데 사용되는 중요한 도입니다. ROC 곡선은 다양한 분류 임계값(threshold)에 **민감도**(감지율, 재현율)와 **위양성율**(거짓 양성 비율)을 비교하여 모델의 판별 능력을 분석...
# TN ## 개요 **TN**(True Negative, 참 음성)은 통계학 및 기계학습에서 분류 모델의 성능을 평가하는 데 사용되는 **혼동 행렬**(Confusion Matrix)의 네 가지 기본 요소 중 하나입니다. TN은 모델이 '음성 클래스(Negative class)'로 올바르게 예측한 사례의 수를 나타냅니다. 즉, 실제 정답이 음성(Neg...
FP **FP**(False Positive, 위양성)는 데이터, 특히 머신러닝과 통계 분석에서 중요한 개념 중 하나로, **모델이 실제로는 부정 클래스**(Negative) **인 사례를 잘못되어 양성 클래스**(Positive) **로 예측한 경우**를 의미합니다. 혼동 행렬(Confusion Matrix)에서 FP는 모델의 오분류 오류를 나타내는 네...
# 예측 정확도 평가 예측 정확도가는 데이터과학에서 머신러닝 모델이나 통계 모델의 성능을 판단하는 핵심 과정이다. 모델이 학습된 후, 새로운 데이터에 대해 얼마나 정확하게 예측하는지를 평가함으로써 모델의 신뢰성과 실용성을 판단할 수 있다. 특히 분류, 회귀, 시계열 예측 등 다양한 예측 과제마다 적절한 평가 지표가 다르므로, 과제의 특성에 맞는 정확도 평...
# 교차 검증 ## 개요 **교차 검**(Cross-Validation, CV) 기계학습 통계 모델의 성능을가하고 과적(overfitting) 방지하기 위해 사용되는 기법입니다. 모델이 훈련 데이터만 잘 맞추어져 새로운 데이터에 대해서는 성능이 저하되는 문제를 사전에 검출하기 위해, 데이터를 여러 번 나누어 학습과 검증을 반복하는 방식으로 작동합니다. ...
# 필터 방법 ## 개요**필터 방법**( Method)은 데이터과학, 특히 머신러닝과 통계 모델링에서 **특성 선택**(Feature Selection)을 수행하는 대표적인 기법 중 하나입니다. 이은 모델 훈련 과정에 의존하지 않고, 데이터 자체 통계적 특성만을 기반으로 각 특성의 중요도를 평가하여 불필요하거나 중복된 변수를 제거하는 것을 목표로 합니다...
# VC 이론 VC 이론(Vapnik-Chervonenkis Theory)은 통계적 학습 이론의 핵심 기반 중 하나로, 머신러닝 모델의 일반화 능력을 수학적으로 분석하는 데 중요한 역할을. 이 이론 블라드미르 바프니크(Vladimir Vapnik)와 알세이 체르보넨키스lexey Chervonenkis가 190년대 초반에 제안하였으며, 특히 **모델의 복잡...
# 분류 ## 개요 **분류**(Classification)는 머신러닝에서 대표적인 지도 학습(Supervised Learning 과제 중 하나로, 주어 입력 데이터를 미리 정의된 **카테고리**(클래스) 중 하나로 할당하는 작업을 말합니다. 예 들어, 이메이 스팸인지 정상인지 판단하거나, 의료 데이터를 기반으로 환자가 특정 질병에 걸렸는지를 예측하는 ...
# 최적의 경계선 ## 개요 **최적 경계선**(Optimal Decision)은 머신러닝, 지도 학습(Supervised Learning)에서 분류(Classification) 문제 해결할 때 사용 핵심 개념 중 하나. 이는 서로 다른 클래스에 속한 데이터 포인트들을 가장 잘 구분할 수 있는 기하학적 경계를 의미합니다. 최적의 경계선은 모델이 새로운 ...