# Bi-LSTM + CRF ## 개요 **Bi-LSTM + CRF**는 자연어 처리(Natural Language Processing, NLP) 분야에서 널리 사용되는 시퀀스 레이블링(sequence labeling)을 위한 딥러닝 모델 구조입니다. 이 모델은 **양방향 장단기 기억 장치**(Bidirectional Long Short-Term Mem...
검색 결과
"사전 훈련된 언어 모델"에 대한 검색 결과 (총 4개)
# BART ##요 **BART**(Bidirectional and Autogressive Transformer)는 자연어처리LP) 분야에서 널리되는 **사전 훈련된 언어 모델** 중 하나로, 2019년 페이스 AI 리서치(Facebook AI Research FAIR)에서 제안. BART는 기존의 BERT와 GPT의 장점을 결합한 하이브리드 구조를 특...
어휘 확장자연어처리(NLP, Natural Language Processing) 모델 성능은 모델이 이해하고 처리할 수 있는 어휘의 범위에 크게 영향을 받습니다. 특히 언어는 지속적으로 진화하고, 새로운 단어, 줄임말, 신조어, 전문 용어 등이 등장하기 때문에, 모델의 어휘가 고정되어 있을 경우 성능 저하가 불가피합니다. **어휘 확장**(Vocabular...
# 문서 분류 ## 개요 **문서 분류**(Document Classification)는 자연처리(NLP, Natural Language Processing)의 핵심술 중 하나로, 주어진 텍스트 문서를 미리 정의된 카테고리나 클래스에 자동으로 배정하는 작업을 의미한다. 이 기술은 방대한 양의 텍스트 데이터를 체계적으로 정리하고, 정보 추출 및 지식 관리...