# 데이터셋 구축 ## 개요 데이터셋 구축(Data Set Construction)은 데이터 과학 프로젝트의 첫 번째이자 가장 중요한 단계 중 하나로, 분석, 모델링, 머신러닝 등의 작업을 수행하기 위해 필요한 데이터를 체계적으로 수집, 정제, 통합하고 구조화하는 과정을 의미합니다. 고품질 데이터셋은 정확한 인사이트 도출과 신뢰할 수 있는 예측 모델 개...
검색 결과
"대규모 데이터"에 대한 검색 결과 (총 173개)
# Vision Transformer ## 개요 **Vision Transformer**(ViT)는 전통적으로 이미지 인 작업에서 지배적인 위치를 차지해온합성곱 신망**(CNN)과는 다른 접근 방식을 제시한 획기적인 인공지능 모델이다. 2020년 Research 팀이 발표한 논문 *"An Image is Worth 16x16 Words: Transfor...
# 파인튜닝 **파인튜닝**(Fine-tuning)은 사전 훈련된(pre-trained) 머신러닝 모델을 특정 작업이나 도메인에 맞게 추가로 훈련하여 성능을 개선하는 기법입니다. 주로 딥러닝 기반의 대규모 모델, 특히 자연어 처리(NLP), 컴퓨터 비전(CV), 음성 인식 등에서 널리 사용되며, 전이 학습(Transfer Learning)의 한 형태로 간...
# Universal Sentence Encoder **Universal Encoder**(유니버설 문장 인코더, 이하 USE)는 구글이 개발한 자연어 처리(NLP) 모델로 문장을 고정된 차원의 의미 벡터(임베딩)로 변환하는 데 특화된 딥러닝 기반 임베딩 기술이다. 이 모델은 다양한 언어와 문장 구조에 대해 일반화된 의미 표현을 제공하며, 분류, 유사도 ...
# 분류 ## 개요 **분류**(Classification)는 머신러닝에서 대표적인 지도 학습(Supervised Learning 과제 중 하나로, 주어 입력 데이터를 미리 정의된 **카테고리**(클래스) 중 하나로 할당하는 작업을 말합니다. 예 들어, 이메이 스팸인지 정상인지 판단하거나, 의료 데이터를 기반으로 환자가 특정 질병에 걸렸는지를 예측하는 ...
# CLIP: 컨텍스트 기반 다중 모달 모델 ## 개요 **CLIPContrastive Language–Image Pre-training)은 OpenAI에서 2021에 발표한 **티모달 인공지능 모델**로, 이미지와 텍스트 간의 관계를 학습하여 시각적 정보와 언어 정보를 동시에 이해하는 능력을 갖춘 대표적인 모델입니다. CLIP은 전통적인 컴퓨터 비전 ...
# One-Class SVM **One-Class SVM**(One-Class Support Vector)은 비지도 학습(Unsupervised Learning) 기반의 이상 탐지(Anomaly Detection) 알고리즘 중 하나로, 주어진 데이터가 정상(normal) 데이터인지, 아니면 이상(anomaly 또는 outlier) 데이터인지를 판단하는 데...
# Altair **air**는 파썬 기반의 선적 데이터 시각 라이브러로, 사용자가 데이터를 직관적이고 효율적으로 시각화할 수 있도록 도와줍니다. Altair는 **Vega** 및 **Vega-Lite** 시각화 시스템 위에 구축되어 있으며, 통계적 데이터를 기반으로 한 시각화를 위한 간결하고 표현력 있는 문법을 제공합니다. 특히, 데이터 과학자와 분석가...
# 데이터베이스 지식 발견 ## 개요 **데이터베이스 지식 발견**(Knowledge Discovery in Databases, 이하 KDD)은 대규모 데이터베이스에서 잠재적인 패턴, 관계, 트렌드 등을 추출하여 유의미한 정보와 지식을 도출하는 과정을 의미합니다. 이는 단순한 데이터 분석을 넘어, 데이터로부터 인사이트를 창출하고 의사결정에 활용할 수 있...
# 800GbE## 개요 **80GbE**(800 Gigabit Ethernet)는 이더넷 네트워크 기술의 차세대속 표준으로, 초당 800기가비트(Gbps)의 데이터 전 속도를 제공 기술입니다. 이 표준은 데이터센터, 고성능 컴퓨팅(HPC), 클라우드 서비스, 인공지능(AI) 및 머신러닝(ML) 워크로드의 폭발적인 성장에 대응하기 위해 개발되었으며, 기존...
# 데이터 정제 ##요 데이터 정제(Data Cleaning는 데이터 과학 프로세스의 핵 단계 중 하나로,된 원시 데이터 data)에서 오류 중복, 불일치, 결측치, 이상치 등을 식별하고 수정하거나 제거하여 분석에 적합한 고품질의 데이터셋을 만드는 과정을 말합니다. 데이터 정제는 데이터 분석, 기계 학습, 비즈니스 인텔리전스 등의 후속 작업의 정확성과 ...
# 스킵-그램 (-gram) ## 개요 스킵-그램(Skip-gram)은 자연어 처리(Natural Language Processing, NLP) 분야에서 널리 사용되는어 모델링 기법으로 **워드 임베딩**(Word Embedding) 생성하는 데 핵심적인 역할을 한다. 스킵-그램은 2013년 토마스 미코로프(Tomas Mikolov)와 구글 연구팀이 제...
# FastText FastText는 페이스북(Facebook AI Research, FAIR에서 개발한 오픈소스 라이브러리로, 텍스트 분류 및 단어 표현 학습을 위한 효율적이고 확장 가능한 자연어처리(NLP) 도구입니다. FastText는 기존의 단어 임베딩 기법인 Word2Vec과 유사한 목표를 가지지만, **서브워드(subword) 정보**를 활용함...
# 기업용 지오데이터베이스 ## 개요 기업용 지오데이터베이스(Geo-Database for Enterprise)는 기업이 지리적 정보(GIS 데이터)를 저장, 관리, 분석하고 활용하기 위해 설계된 고도화된 데이터베이스 시스템입니다. 이는 전통적인 관계형 데이터베이스(RDBMS)에 지리 정보 시스템(GIS) 기능을 통합하여, 위치 기반 데이터를 효율적으로...
# 서포트 벡터 머신 ## 개요 **서트 벡터 머신**(Support Vector Machine, SVM)은 기계학습(Machine Learning) 분야에서 널리 사용되는 지도 학습(supervised learning) 알고리즘으로, 주로 분류(classification) 문제에 활용되지만 회귀(regression) 및 이상치 탐지(outlier de...
# Trifacta ## 개요 **Trifacta**는 대용량 데이터를 효과적으로 정제하고 변환하기 위한 선도적인 데이터 정제 도구로, 기업의 데이터 과학자, 분석가, 엔지니어들이 복잡한 원시 데이터를 분석 가능한 형태로 빠르게 가공할 수 있도록 지원한다. Trifacta는 머신러닝 기반의 인터랙티브 인터페이스를 제공하여 사용자가 코드 없이도 직관적으로...
# 오류 탐지 ## 개요 **오류 탐지**(Error Detection)는 데이터제(Data Cleaning) 과정에서 중요한 첫 번째 단계로, 데이터셋 내에 존재하는 잘못되거나 비논리적인 값, 불일치, 결측치, 중복 데이터 등을 식별하는 작업을 말합니다. 정확한 분석과 신뢰할 수 있는 인사이트 도출을 위해서는 데이터의 품질이 필수적이며, 오류 탐지는 ...
# 피드백 수집 ## 개요 피드백 수집은 소프트웨어 개발 과정에서 팀원, 이해관계자, 사용자 등 다양한 주체로부터 의견, 평가, 개선안을 체계적으로 수렴하는 활동을 의미합니다. 이는 제품의 품질 향상, 사용자 만족도 제고, 개발 프로세스의 지속 가능한 개선을 위한 핵심 요소로, 현대 소프트웨어 개발에서 협업의 중요한 축을 담당합니다. 특히 애자일(Agi...
# SR-IOV **SR-IOV**(Single Root I/O Virtualization, 단일 루트 I/O 가상화)는 하드웨어 수준에서 입출력(I/O) 장를 가상화하여 가상 머신(VM)이 물리적 장치에 직접 접근할 수 있도록 지원하는 기술입니다. 이 기술은 특히 네트워크 인터페이스 카드(NIC), GPU, 스토리지 컨트롤러와 같은 고성능 장치의 가상화...
# CRF: 조건부 확률 필드 (Conditional Random Field) ## 개 조건부 확률 필드(**Conditional Random Field**, 이하 **CRF**)는 주어진 입력 시퀀스에 기반하여 출력 레이블 시퀀스를 예측하는 **확률적 그래프 모델**의 일종입니다. 자연어처리(NLP) 분야에서 특히 토큰 수준의 레이블링 작업, 예를 들...