# ELMo ## 개요 **ELMo**(Embeddings from Language Models)는 자연어처리(NLP) 분야에서 획기적인 성과를 이룬 **문맥 기반 단어 임베딩**(contextualized word embedding) 기술 중 하나로, 2018년 앨리슨 패리스키(Allison Parrish)와 마일스 루트(Miles Luft) 등이 아...
검색 결과
"양방향 언어 모델"에 대한 검색 결과 (총 4개)
# BERT ## 개요 **BERT**(Bidirectional Encoder Representations from Transformers)는 자연어 처리(NLP) 분야에서 혁신적인 영향을 미친 언어 모델로, 2018년 구글(Google) 연구팀에 의해 개발되었습니다. BERT는 기존의 단방향 언어 모델과 달리 **양방향 맥락**(bidirectiona...
# BERT ## 개요 **BERT**(Bidirectional Encoder Represent from Transformers)는어 처리(NLP)야에서 혁신적인과를 이룬러닝 기반 언어 모델로, 구글(Google) 연구팀이 2018년에 발표한 머신러닝 모델이다. BERT는 이전의 단방향 언어 모델들과 달리 **양방향 컨텍스트**(Bidirectional...
# Bidirectional Encoder Represent from Transformers ## 개요 **Bid Encoder Representations from Transformers**(BERT는 자연어 처리(NLP) 분야 혁신적인 성를 이룬 언어델로, 018년글(Google) 연구에 의해 개발. BERT는 이전의 단방향 언어 모델들(예: GPT...