검색 결과

"사전학습모델"에 대한 검색 결과 (총 1개)

BERT-Base

기술 > 자연어처리 > 대규모 언어 모델 | 익명 | 2026-01-13 | 조회수 9

# BERT-Base BERT-Base는 자연어 처리(NLP) 분야에서 혁신적인 전환을 가져온 **Bidirectional Encoder Representations from Transformers**(BERT) 모델의 기본 버전 중 하나로, 구글 연구팀에 의해 2018년에 발표되었습니다. BERT는 이전의 단방향 언어 모델과 달리 문장 내 모든 단어를 ...