# 데이터 정제 ##요 데이터 정제(Data Cleaning는 데이터 과학 프로세스의 핵 단계 중 하나로,된 원시 데이터 data)에서 오류 중복, 불일치, 결측치, 이상치 등을 식별하고 수정하거나 제거하여 분석에 적합한 고품질의 데이터셋을 만드는 과정을 말합니다. 데이터 정제는 데이터 분석, 기계 학습, 비즈니스 인텔리전스 등의 후속 작업의 정확성과 ...
검색 결과
"레코드"에 대한 검색 결과 (총 26개)
# Levenshtein리 Levenshtein 거리(venshtein Distance)는 두열 간의 유사도를 측정하는 데 사용되는 **편집 거리**(Edit Distance)의 한 형태로, 1965년 러시아 수학자 블라디미르 레벤슈타인(Vladimir Levenshtein)에 의해 제안되었습니다. 이 거리는 하나의 문자열을 다른 문자열로 변환하기 위해 ...
# 데이터 무결성 개요 **데이터 무결성**(Data Integrity은 데이터의 정확성,관성, 신뢰성 및 완전성을 보장하는 개념으로, 정보 시스템에서 데이터가 생성, 저장, 전송, 처리 전 과정 동안 **의도하지 않은 변경이나 손실이 없도록 유지되는 상태**를 의미합니다. 데이터 무결성은 데이터 관리의 핵심 요소 중 하나이며, 특히 데이터베이스 시스...
# 데이터 변환 데이터 변환(Data Transformation)은 데이터 과학 및 정보 처리 과정에서 핵심적인 단계 중 하나로, 원시 데이터를 분석이나 모델링에 적합한 형태로 재구조화하거나 변형하는 작업을 의미합니다. 이 과정은 데이터 정제, 통합, 정규화, 스케일링 등 다양한 기법을 포함하며, 데이터 품질을 높이고 분석 결과의 신뢰성을 보장하는 데 중...
중복 데이터 제 ## 개요데이터 정제(Data Cleaning)는 데이터 분석 및 머신러닝 모델 개발 과정에서 매우 중요한 전처리 단계입니다. 과정에서 데이터의 품질을 높이고, 분석 결과의 신뢰성을 확보하기 위해 다양한 문제를 해결합니다. 그중 **중복 데이터 제거**(Deduplication)는 동일하거나 매우 유사한 데이터 레코드가 여러 번 존재하는 ...
# 데이터 전처리 데이터 전처리(Data Preprocessing)는 데이터 과학 및 머신러닝 프로젝트에서 가장 중요한 초기 단계 중 하나로, 원시 데이터(raw data)를 분석이나 모델 학습에 적합한 형태로 변환하는 과정을 의미합니다. 현실 세계의 데이터는 대부분 불완전하고, 일관성이 없으며, 노이즈가 포함되어 있어 그대로 사용하기에는 적합하지 않습니...