# Exploring the Limits Transfer Learning ## 개요 **전 학습**(Transfer Learning) 한 도메인 작업에서 학습한식을 다른 관련메인이나 새로운에 적용하는 기계 학습의 핵심 기법입니다. 특히 대모 언어 모델(Large Language Models, LLMs)의 발전과 함께 전이 학습은 자연어 처리(NLP) 분...
검색 결과
"텍스트 분류"에 대한 검색 결과 (총 36개)
# 합성곱 신망 ## 개요 **합성곱경망**(Convolutional Network, 이하 CNN)은공지능, 컴퓨터 비전(Computer) 분야에서 가장 핵심적인 신경망 모델 하나입니다. CNN 이미지, 비디오 음성 등의 **격자 형태**(grid-like) 데이터를 효율적으로 처리할 수 있도록 설계된 심 신경망 구조로,의 시각 시스템을 모방한 아키텍처...
# LIME ## 개요 LIME (Local Interpretable-agnostic Explanations)는 복잡한 머신러닝 모의 예측 결과를 인간이 이해할 수 있도록석하는 데 사용되는 **모 무관**(model-agnostic)한 설명 기법입니다. 딥러닝과 같은 블랙박스 모델은 높은 정확도를 제공하지만, 그 예측 과정이 투명하지 않아 신뢰성과 책임...
# 사전 학습 **사전 학습**(Pre-training) 머신러닝, 특히 딥닝 분야에서리 사용되는 학습 전략으로, 모델이 특정 작업에 본격적으로 적용되기 전에 방대한 양의 일반적인 데이터를 통해 기본적인 지식이나 표현 능력을 습득하는 과정을 의미합니다. 이 방법은 주어진 과제(예: 텍스트 분류, 이미지 인식)에 대한 **전이 학습**(Transfer Le...
# TF-IDF ## 개 TF-IDF(Term Frequencyverse Document Frequency) 자연어 처리(NLP와 정보 검색Information Retrieval) 분야에서 널 사용되는 **텍스트 데이터의 중요도를 수치화하는 가중치 기**입니다. 이은 특정 단어(term)가 하나의 문서(document) 내에서 얼마나 중요한지를 평가하기...
# Bidirectional Encoder Represent from Transformers ## 개요 **Bid Encoder Representations from Transformers**(BERT는 자연어 처리(NLP) 분야 혁신적인 성를 이룬 언어델로, 018년글(Google) 연구에 의해 개발. BERT는 이전의 단방향 언어 모델들(예: GPT...
# TF-IDF 가중 평균베딩 ## 개요 -IDF 가중 평균 임딩(TF-IDF Weighted Averageding)은 자연처리(NLP)에서나 문장의 의미를 수치터로 표현하기 위한 대표적인 기술 중 하나입니다. 방법은 단어 임베딩(word)과 TF-IDF(term-inverse document frequency)중치를 결합하여, 문서 내 각 단어의도를 ...
희소성 ##요 자연어처리(NLP Natural Language Processing) 분야 **희소성**(sparsity)은 언어 데이터의 중요한 특 중 하나로, 고차원 벡터 공간에서 대부분의 요소가 0인 현상을 의미합니다. 이 특히 단어를 수 형태로 표현하는 **임베딩**(embedding) 기술의 초기 단계인 **희소 표현**(sparse repres...
# N-그램## 개요 **N-그램**(N-gram)은어처리(Natural Language Processing, NLP) 분야에서 언어 모델(Language Modeling)에리 사용되는 기초적인 통계적 기법이다. N-램은 연속 N개의 아이템(item)으로 구성된 부분열을 의미하며, 언어 처리에서는 주로 연속된 N개 단어(word) 또는 음소(phoneme...
# 필터 방법 ## 개요**필터 방법**( Method)은 데이터과학, 특히 머신러닝과 통계 모델링에서 **특성 선택**(Feature Selection)을 수행하는 대표적인 기법 중 하나입니다. 이은 모델 훈련 과정에 의존하지 않고, 데이터 자체 통계적 특성만을 기반으로 각 특성의 중요도를 평가하여 불필요하거나 중복된 변수를 제거하는 것을 목표로 합니다...
# zero-shot 전이 학습 ## 개요 **zero 전이 학습**(Zero-Shot Transfer Learning) 인공지능 특히 기계학습과 자연어 처리 분야에서 중요한 개념 중 하나로, 모델이 **훈련 과정에서 한 번도 본 적 없는 클래스**(unseen classes)에 대해 예측을 수행할 수 있도록 하는 기법입니다. 이는 전이 학습(Trans...
# Universal Sentence Encoder **Universal Encoder**(유니버설 문장 인코더, 이하 USE)는 구글이 개발한 자연어 처리(NLP) 모델로 문장을 고정된 차원의 의미 벡터(임베딩)로 변환하는 데 특화된 딥러닝 기반 임베딩 기술이다. 이 모델은 다양한 언어와 문장 구조에 대해 일반화된 의미 표현을 제공하며, 분류, 유사도 ...
단어 임베 ## 개요 **단어 임베딩**(Word Embedding)은 자연어처리(NLP, Natural Language) 분야에서 언어의 의미를 컴퓨터가 이해할 수 있도록 수치화하는 핵심 기술입니다. 전통적인 자연어처리 방식에서는 단어를 단순한 식별자(ID) 또는 원-핫 인코딩(One-hot Encoding)으로 표현하여 단어 간의 의미적 유사성을 반...
# 분류 ## 개요 **분류**(Classification)는 머신러닝에서 대표적인 지도 학습(Supervised Learning 과제 중 하나로, 주어 입력 데이터를 미리 정의된 **카테고리**(클래스) 중 하나로 할당하는 작업을 말합니다. 예 들어, 이메이 스팸인지 정상인지 판단하거나, 의료 데이터를 기반으로 환자가 특정 질병에 걸렸는지를 예측하는 ...
# 다항식 커널 ## 개요 다항식널(Polynomial Kernel)은 **신러닝**, 특히 **서포트 벡터 머신**(Support Vector Machine, SVM)과 같은 커널 기반 알고리즘에서 널리 사용되는 비선형 커널 함수 하나입니다. 이 커은 입력 데이터 간의 유사도를 고차원 공간에서 효과적으로 계산함으로써, 선형적으로 분리되지 않는 복잡한 ...
# Global Vectors for Word Representation**Global Vectors for Word RepresentationGloVe) 단어를 고차 벡터 공간에 표현하는 대표적인 **언어 모델링 기법** 중 하나로, 단어 간의 의미적 관계를 수치적으로 포착하는 데 목적을 둔다. GloVe는 분포 가설(Distributional Hypot...
# FastText FastText는 페이스북(Facebook AI Research, FAIR에서 개발한 오픈소스 라이브러리로, 텍스트 분류 및 단어 표현 학습을 위한 효율적이고 확장 가능한 자연어처리(NLP) 도구입니다. FastText는 기존의 단어 임베딩 기법인 Word2Vec과 유사한 목표를 가지지만, **서브워드(subword) 정보**를 활용함...
# 서포트 벡터 머신 ## 개요 **서트 벡터 머신**(Support Vector Machine, SVM)은 기계학습(Machine Learning) 분야에서 널리 사용되는 지도 학습(supervised learning) 알고리즘으로, 주로 분류(classification) 문제에 활용되지만 회귀(regression) 및 이상치 탐지(outlier de...
# 매크로 F1 ## 개요 **매크로 F1Macro F1)은중 클래스 분류(Multiclass Classification) 문제에서 모델의 성능을 평가하기 위한 지표 중 하나로, 각 클래스별 **F1 점수**(F1 Score)를 계산한 후, 이를 단순 평균하여 전체 성능을 평가하는 방식을 의미한다. 이 지표는 클래스 간 불균형이 존재하는 경우에도 각 클...
# SVM (서포트 벡터 머신) 서포트 벡터 머신(Support Vector Machine, SVM은 머신러닝 분에서 널리 사용되는 지도 학습 기반의 **분류 알고리즘**으로, 주로 이진 분류 문제에 사용되지만 다중 클래스 분류에도 확장 가능하다. SVM은 데이터 포인트를 고차원 공간으로 매핑하여 최적의 경계선(hyperplane)을 찾아 서로 다른 클래...