# 최장 공통 부분 수열 ## 개요 **최장통 부분 수열**(Longest Subsequence, 이하 LCS)은 개 이상의 문자열(또는 수열)에서 동시에 나타나는 **부분 수열**(subsequence) 중 가장 긴 것을 찾는 문제입니다. 이 알고리즘은 **자연어처리**(NLP), **생물정보학**, **버전 관리 시스템**(예: `git diff`)...
검색 결과
"유사도 측정"에 대한 검색 결과 (총 19개)
# 공출현 행렬 ## 개요 **공출 행렬**(Co-occurrence)은 자연어처리(Natural Language Processing, NLP) 분야에서 언어의 통계적 구조를 분석하고 단어 간의 의미적 관계를 모델링하는 데 핵심적으로 사용되는 데이터 구조이다. 이 행렬은 특정한 문맥 창(window) 내에서 함께 등장하는 단어들의 빈도를 기록함으로써, ...
# 벡터 연산 벡터 연산(Vector Operation)은 데이터과학, 기계학습, 물리학, 컴퓨터 그래픽스 등 다양한 분야에서 핵심적인 역할을 하는 수학적 도구입니다. 특히 고차원 데이터를 처리하는 데이터과학에서는 벡터를 통해 데이터 포인트를 표현하고, 이를 기반으로 유사도 계산, 차원 축소, 모델 학습 등의 작업을 수행합니다. 본 문서에서는 벡터 연산의...
# Global Vectors for Word Representation**Global Vectors for Word RepresentationGloVe) 단어를 고차 벡터 공간에 표현하는 대표적인 **언어 모델링 기법** 중 하나로, 단어 간의 의미적 관계를 수치적으로 포착하는 데 목적을 둔다. GloVe는 분포 가설(Distributional Hypot...
# Levenshtein리 Levenshtein 거리(venshtein Distance)는 두열 간의 유사도를 측정하는 데 사용되는 **편집 거리**(Edit Distance)의 한 형태로, 1965년 러시아 수학자 블라디미르 레벤슈타인(Vladimir Levenshtein)에 의해 제안되었습니다. 이 거리는 하나의 문자열을 다른 문자열로 변환하기 위해 ...
# 의미 분석 ## 개요 **의미 분석**(Semantic Analysis)은 자연어 처리(Natural Language Processing, NLP) 분야에서 언어의 표면적인 구조(문법)를 넘어서, 텍스트가 전달하는 **의미**()를 이해하고 해석하는 과정을 말합니다. 이는 단어, 문장, 문단 단위에서 언어의 진정한 의미를 추출하고, 문맥에 따라 다르...
# Damerau-Levenshtein 거리 ## 개요 **amerau-Levenshtein 거리**(Damerau-Levenshtein Distance)는 두 문자열 간의 유사도를 측정하는 편집 거리(Edit Distance)의 일종으로, 문자열을 서로 변환하기 위해 필요한 최소 편집 연산의 수를 계산한다. 이 거리는 러시아 수학자 **블라디미르 레벤...
# 문서 임베딩 ## 개요 **문서 임베**(Document Embedding)은 자연처리(NLP) 분야에서 문서 전체를 고정된 길이의 실수 벡터로 표현하는 기술을 의미합니다. 이는 텍스트 데이터를 기계가 이해할 수 있는 수치적 형태로 변환하는 핵심 과정 중 하나이며, 검색, 분류, 유사도 측정, 요약, 클러스터링 등 다양한 응용 분야에서 활용됩니다. ...
# 문장 임베딩 ## 개요 **문장 임딩**(Sentence Embedding)은어처리(NLP 분야에서 문장을 고정된 차원의 밀집 벡터(dense vector) 형태로 표현하는 기술을 의미합니다. 이 벡터는 문장의 의미적, 문법적 특성을 수치적으로 인코딩하여, 유사한 의미를 가진 문장은 벡터 공간에서 가까운 위치에 배치되도록 합니다. 문장 임베딩은 기계...
GloVe ##요 **GVe**(Global Vectors for Word)는 스탠포드 대학교의 제프리 펜팅턴(Jeffrey Pennington), 리처드 소처(Richard Socher), 크리스토퍼 맨닝(Christopher D. Manning)이 2014년에 제안한 단어 임베딩(word embedding) 기법입니다. GloVe는 단어의 의미를 실...
# FastText FastText는 페이스북(Facebook AI Research, FAIR)에서 개발한 오픈소스 라이브러리로, 텍스트 표현 학습과 텍스트 분류를 위한 효율적인 머신러닝 도구입니다. 특히 단어 임베딩 생성과 텍스트 분류 작업에서 뛰어난 성능을 보이며, 기존의 Word2Vec과 비교해 하위 문자 단위(subword) 정보를 활용함으로써 희...
# Doc2Vec **Doc2Vec**은 문서)를 고정된 차원의 밀 벡터(dense vector)로 변환하는 **임베딩 기법**으로, 자연어 처리(NLP) 분야에서 문서 간의 의미적 유사도를 계산하거나 문서 분류, 군집화 등의 작업에 널리 사용됩니다. 이 기법은 단어를 벡터로 표현하는 Word2Vec의 확장판으로, 단어뿐만 아니라 전체 문서를 하나의 벡터...
# Word2Vec ## 개요 **Word2Vec**은 자연 처리(NLP)야에서 널리 사용되는 **단어 임베딩**(word embedding) 기법 중 하나로, 단어를 고차원 벡터 공간에 실수 벡터로 표현하는 모델입니다. 이 기법 2013년 구글의 토마스 미코로프(Tomas Mikolov)와 그의 동료들이 개하였으며, 기존의 복잡하고 계산 비용이 높은 ...
# 분산 표현 ## 개요 **분산**(Distributed Representation)은공지능, 특히어 처리(Natural Processing, NLP) 딥러닝 분야에서 핵심 개념 중 하나입니다. 이 개별 기호나 단어를 단한 식별자(ID)로 다루는통적인 **희소 표현**(Sparse Representation과 달리, 정보를 고차원 실수 벡터 공간에 분...
# Skip-gram ## 개요 **-gram**은 자연어 처리(Natural Language Processing, NLP) 분야에서 널리 사용되는 **단어 임베딩**(Word Embedding) 기법 중 하나로, **워드투벡**(Word2Vec) 모델의 두 가지 아키텍처 중 하나이다. 다른 하나는 CBOW(Continuous Bag of Words)이...
# 임베딩 ## 개요 **임베딩**(Embedding)은 인공지능, 특히 자연어 처리(NLP)와 머신러닝 분야에서 중요한 개념으로, 고차원의 범주형 데이터를 저차원의 실수 벡터로 변환하는 기법을 의미합니다. 이 기술은 단어, 문장, 이미지, 사용자 행동 등 다양한 형태의 데이터를 컴퓨터가 이해하고 계산할 수 있는 형태로 표현하는 데 핵심적인 역할을 합니...
# 셀프-어텐션 ## 개요 셀프-어텐션(Self-Attention)은 인공지능 분야에서 시퀀스 데이터의 상호작용을 모델링하는 데 사용되는 핵심적인 기술입니다. 특히 **트랜스포머(Transformer)** 아키텍처의 핵심 구성 요소로, 자연어 처리(NLP) 및 컴퓨터 비전(CV) 등 다양한 분야에서 혁신을 이끌었습니다. 이 메커니즘은 입력 시퀀스 내 모든...
# 실루엣 점수 ## 개요/소개 실루엣 점수(Silhouette Score)는 클러스터링 알고리즘의 성능을 평가하는 데 사용되는 지표로, 데이터 포인트가 자신의 클러스터에 얼마나 잘 속해 있는지를 측정합니다. 이 점수는 -1에서 1 사이의 값을 가지며, **1에 가까울수록 클러스터 간 분리도가 높고, -1에 가까우면 클러스터 내부의 유사도가 낮음을 의...
# 계층적 분류 (Hierarchical Clustering) ## 개요/소개 계층적 분류(Hierarchical Clustering)는 데이터 포인트 간의 유사도를 기반으로 계층 구조를 형성하여 클러스터를 생성하는 비단순 군집화 방법이다. 이 기법은 **계층적 구조**(Dendrogram)로 시각화되며, 데이터의 자연적인 계층 구조를 탐지하는 데 유용하...