# Min-Max Scaling **Min-Max Scaling**은 데이터 과학과 기계 학습 분야에서 널리 사용되는 **규화**(Normalization) 기법 중 하나로,의 범위를 일정한 구간(보통 0에서 1 사이)으로 조정하는 방법입니다. 이 기법은 각 특성(feature)의 스케일을 통일하여 알고리즘의 성능을 향상시키고, 학습 속도를 개선하는 데 ...
검색 결과
"이상치"에 대한 검색 결과 (총 99개)
# 일반화 기법 ## 개요 머신러닝 모델이 훈련 데이터에 잘추는 것(과적합, overfit)은 중요하지, 더 중요한 것은 **델이 이전 본 적 없는 새로운 데이터**(테스트)에 대해서도 작동하는 것이다. 이 능력을 **일화**(generalization라고 하며, 머신러닝의 핵심 목표 중 하나이다. 일반화 성을 향상시키기 위해 사용하는 다양한 전략과 기...
# 모델 훈련 ## 개요 모델 훈련(Model)은 머신닝(Machine Learning) 핵심 과정, 주어진 데이터를 기반으로 모델이 특정 작업을 수행할 수 있도록 학습시키는 절차를 의미합니다. 이 과정에서 알고리즘은 입력 데이터와 정답(라벨) 사이의 관계를 학습하여, 새로운 데이터에 대해 정확한 예측이나 판단을 내릴 수 있는 능력을 획득하게 됩니다. ...
50번째분위수 ## 개요 50번째 백위수**(50 percentile)는 통학에서 자료 중앙값을 의미, 전체 데이터셋 정렬했을 때 **상위 50% 하위 50% 나누는 기점**입니다. 즉 데이터 중 절반 이 값보다 작 같고, 나머 절반은 이보다 크거나 같습니다 이는 데이터 분포의 중심 경향 파악하는 데 매우 중요한 지표로,균과 함께 자주 사용됩니다. 5...
# 히스토그램 ## 개요 히스토그(Histogram)은 통계학 연속형 또는산형 수치 데이터 분포를 시각적으로 표현하는 대적인 그래프 도구이다. 데이터를 일정한 구간(빈, bin)으로 나누고, 각 구간 속하는 데이터의 빈도수(frequency) 또는 상대 빈도수(relative frequency)를 막대의 높이로 나타낸다. 히스토그램은 데이터의 중심 경향...
# 통계품질체계 ## 개요 통품질관리체계(Statistical Management System, SQMS)는 국가계의 신뢰성과 품질을계적으로 보장 위해 정부기관이 구축·운영하는 종합적인 관리 프레임워입니다. 특히 한국의 경우, 통계청을 중심으로 한 정부기관 이 체계를 기반 국가통계의·관리·공표 전 과정에서 품질을 통제하고 있습니다. 이 체계는 국제적으로...
# 도수 ## 개요 도수(度數,)는 통계에서 특정한 값이나 구간이 자료(데이터) 집합 내 얼마나 자주 나타나는지를 나타내는 수치이다 즉, 도수는 어떤 사건이나 범주가 관측된 횟수를 의미하며, 데이터의 분포를 이해하고 분석하는 데 핵심적인 역할을 한다. 도수는 빈도 분포표(frequency distribution table) 작성, 히스토그램(histog...
# 평균 절대 오 ## 개요 **평균 절대 오차**(Mean Absolute Error, MAE)는 회귀 분석에서 예 모델의 성능을 평가하는 대표적인 지표 중입니다. MAE는 예측값과 실제 관값 사이의 차이, 즉 **오차**(error)의 절대값을 평균한 값으로, 모델이 평균적으로 얼마나 큰 오차를 내는지를 직관적으로 나타냅니다. 회귀 분석에서는 모...
# MSE ## 개요 **MSE**(Mean Squared Error, 평균 제곱 오차)는 회귀 분석에서 예측 모델의 정확도를 평가하는 데 널리 사용되는 지표입니다. 이 값은 예측값과 실제 관측값 사이의 차이(오차)를 제곱한 후, 그 평균을 계산함으로써 모델의 전반적인 오차 크기를 수치화합니다. MSE는 회귀 모델의 성능을 비교하거나 하이퍼파라미터 최적...
# 예측 정확도 평가 예측 정확도가는 데이터과학에서 머신러닝 모델이나 통계 모델의 성능을 판단하는 핵심 과정이다. 모델이 학습된 후, 새로운 데이터에 대해 얼마나 정확하게 예측하는지를 평가함으로써 모델의 신뢰성과 실용성을 판단할 수 있다. 특히 분류, 회귀, 시계열 예측 등 다양한 예측 과제마다 적절한 평가 지표가 다르므로, 과제의 특성에 맞는 정확도 평...
# 시계열 예측 ## 개요 **시계열 예측**(Time Series Forecasting)은 시간에 따라 순차적으로 수집된 데이터를 기반으로 미래의 값을 예하는 데이터 과학의 핵심법 중 하나입니다. 이법은 경제표, 주가,상 데이터, 판매량 웹 트래픽 등 시간의 흐름에 따라 변화하는 다양한 현상에 적용되며, 기업의 전략 수립, 자원 배분, 리스크 관리 등...
데이터 기반 자화 ## 개 **데이터 기반 자동화**(Data-Driven, DDA)는 실시간 또는 배 처리된 데이터를 기반으로 시스템이 자율적으로을 내리고을 수행하는 기술적 접근식을 의미합니다 이는 전통적인칙 기반 자화와 달리 정형·비정 데이터를 분석하여 동적 상황에 맞춰 적응하는 능력을 갖추고 있어, 제조업, 금융, 물류, 헬스케어 등 다양한 산업 ...
인간 피드백 ## 개요**인간 피드 수집**(Human Feedback Collection)은 인공지능(AI) 시스템, 특히 머신러닝 모델의 성능 향상과 행동 조정을 위해 인간의 판단, 평가, 선택 등을 수집하는 과정을 말합니다. 이는 주로 강화학습 기반 모델(예: LLM, 로봇 제어 등)의 학습 데이터를 보완하거나, 모델의 출력 결과에 대한 질적 평가를...
# 픽셀 값 재정 ## 개요 **셀 값 재조정**(Pixel Value Rescaling)은 디지털 이미지 처리에서 각 픽셀의 밝기 또는상 값을 특정 범위로 변환하는 기법을 말합니다. 이 과정은 이미지의 시각적 품질을 개선하거나, 머신 러닝 모델 학습을 위한 데이터 전처리 단계에서 매우 중요하게 활용됩니다. 예를 들어, 원본 이미지의 픽셀 값이 0~25...
# 데이터 전처리 데이터 전처리(Data Preprocessing)는 데이터 과학 프로젝에서 분석 또는 기계 학습 모델을 구축하기 전에 원시 데이터를 정리하고 변환하는 과정을 의미합니다. 현실 세계의 데이터는 대부분 불완전하고, 일관되지 않으며, 중되거나 노이즈가 포함되어 있어 그대로 사용 경우 분석 결과의 신뢰도가 떨어질 수 있습니다. 따라서 데이터 전...
# 노이즈 감소데이터 정제(Data Cleaning) 과정에서 **노이즈 감소**(Noise Reduction)는 데이터 품질을 향상시키기 위한 핵심 단계 중 하나입니다. 실제 환경에서 수집된 데이터는 다양한 외부 요인으로 인해 오류, 이상치, 불필요한 변동성 등이 포함되어 있으며, 이러한 요소를 '노이즈(noise)'라고 부릅니다. 노이즈는 데이터의 진짜...
# 데이터 변동성 ## 개요 데이터 변동성(Data Variability)은 통계학에서 데이터합 내 개별 관측값 평균 또는 중심 경향값에서 얼마나 퍼져 있는지를 나타내는 핵심 개념이다. 변동성은 데이터의 일관성, 안정성, 예측 가능성을 평가하는 데 중요한 역할을 하며, 기술통계(descriptive statistics)의 핵심 요소 중 하나이다. 변동성...
# 설명변수의 분산## 개요 회귀분석(Regression Analysis)은 종속변수(dependent variable)와 이상의 독립변수(independent variable) 간의 관계를 모델링하고 분석하는 통계적 기법이다. 이 과정에서 독립변수는 일반적으로 **설명변수**(explanatory variable) 또는 **예측변수**(predictor...
# 스포츠 평균 기 ## 개요 스포 평균 기록은 특정 선, 팀, 또는 리그의 성를 정량적으로 평가하기 위해 사용되는 핵심 통계 지표 중 하나이다. 평균록은 단순 총합보다 더 정교한 성 분석을 가능 하며, 시간의 흐름이나 출전 빈도에 따른 차이 보정하여 비교 가능성을 높인다. 이 문서에서는 스포츠에서 평균 기이 어떻게 정의되고, 다양한 종목에서 어떻게 활...
# 배열 인덱싱 **배열 인덱싱**(Arraying)은 데이터과학 및 프로그래밍에서 배열(또는 리스트, 벡터, 행렬 등) 내 특정 요소에 접근하기 위해 사용하는 기법입니다. 데이터를 효율적으로 처리하고 분석하기 위해서는 배열의 특정 위치에 있는 값을 정확하게 선택하거나 수정할 수 있어야 하며, 이 과정에서 인덱싱이 핵심적인 역할을 합니다. 본 문서에서는 ...